Exclusive Q2 2025 Funding Report now available for premium users. Read more
Everlyn

Login to Rate
Calificar y revisar

Everlyn es el modelo de IA de vídeo más rápido del mundo en la primera capa de infraestructura descentralizada para el vídeo autónomo.

Lyn es el primer modelo de vídeo fundacional de código abierto y ecosistema multimodal superagencial diseñado para ofrecer al mundo una máquina de sueños abierta. El modelo de código abierto insignia de Lyn, Everlyn-1, está remodelando las capacidades de la inteligencia artificial de vídeo en términos de duración de salida, interactividad, latencia de generación y calidad visual hiperrealista. El motor y la plataforma de creación de vídeo de Lyn, Everworld, están revolucionando la forma en que los seres humanos se relacionan con representaciones virtuales fotorrealistas de sí mismos a través de agentes de vídeo personalizados e interactivos capaces de realizar cualquier tarea. Juntos, Everlyn-1 y Everworld alterarán profundamente lo que los seres humanos pueden lograr en línea, asumiendo tareas y actividades que los individuos por sí solos prefieren no hacer o son incapaces de hacer.

Lyn fue fundada por un equipo de destacados expertos en IA generativa, entre los que se incluyen profesores de la Universidad de Cornell, la Universidad de Oxford, la Universidad de Stanford, la Universidad de Florida Central (UCF), la Universidad de Ciencia y Tecnología de Hong Kong (HKUST), la Universidad Mohamed bin Zayed de Inteligencia Artificial (MBZUAI) y la Universidad de Pekín (PKU), así como antiguos líderes de Meta, Deepmind, Microsoft, Google y Tencent, y actuales estudiantes de doctorado en IA generativa. El equipo Lyn está formado por figuras destacadas de la investigación en IA que han desempeñado un papel fundamental en algunas de las innovaciones más significativas del sector, como el modelo de vídeo fundacional de Google, Video Poet, el modelo de vídeo fundacional de Facebook, Make-a-Video, el modelo de vídeo fundacional de Tencent, el modelo de referencia más citado de Meta Movie Gen, Seeing and Hearing, el modelo de vídeo de código abierto más importante del sector, 'Open-Sora-Plan', y el primer modelo de vídeo de agente humanoide integral en tiempo real de OpenAI, Body of Her.

En las páginas siguientes, presentamos nuestra visión de los agentes de vídeo llamados Lyn's, representaciones fotorrealistas de seres humanos con capacidades agenciales multimodales, que funcionan con un protocolo descentralizado alimentado por una amplia red de API de agentes (AAPI). Esperamos que los Lyn sustituyan a la mayor parte de la actividad humana en línea en los próximos años. En este libro, comenzamos con una descripción detallada de nuestro modelo de vídeo fundacional en el que se basa nuestra red y nuestra investigación en modelado autorregresivo, tokenización, reducción de alucinaciones MLLM y canalización de datos en el lado de la IA de vídeo, junto con nuestros avances tecnológicos en módulos de datos hipercontextuales, partición de alimentación de datos personalizada (DataLink), despliegue de modelos híbridos en la nube en dispositivos y enrutamiento de protocolos de API de agentes (CommandFlow). Avanzamos hacia un debate sobre nuestros planes de adopción masiva y el futuro de nuestra plataforma agencial descentralizada, junto con una exploración de la economía que impulsará el ecosistema Lyn.


Ecosistemas en expansión

Con más de 70+ ecosistemas activamente creciendo, también valen tu atención.