Incluye herramientas de comprensión tanto de imágenes como de texto.
Meta AI suma la interacción por voz y la edición de imágenes en WhatsApp, Instagram y Facebook.
En el marco del Connect 2024, la empresa Meta presentó su nuevo modelo de lenguaje «Llama 3.2», el primer modelo de visión de la compañía, con el que agrega comprensión tanto de imágenes como de texto. La novedad fue anunciada por el CEO, Mark Zuckerberg.
Además, Zuckerberg afirmó que el asistente Meta AI es utilizado por más de 400 millones de personas mensualmente. En ese sentido, comunicó su intención de hacerlo «más divertido, útil y eficaz», gracias a las capacidades multimodales de «Llama 3.2»
Dicho asistente podrá conversar con los usuarios mediante respuestas por voz a través de Facebook, Messenger, WhatsApp e Instagram DM, así como interaccionar con imágenes, editándolas o generando nuevo contenido.
Por otra parte, la compañía reveló que están experimentando con el doblaje automático de videos y sincronización labial en Reels, con el objetivo de ayudar a los usuarios a visualizar contenido en su idioma preferido, ya sea a través de Instagram o Facebook.
Otro de los anuncios más destacados fue el de las gafas de realidad aumentada Orion, que Meta describe como «las gafas AR más avanzadas del mundo». Estas gafas aún están en desarrollo y no estarán disponibles en el mercado a corto plazo, por lo que se ofreció una primera mirada a su diseño y funcionalidades.
El Connect 2024 abordó temas como la realidad virtual (VR) y realidad aumentada (AR). Además, trató la inteligencia artificial para dispositivos y productos.