Meta, dueña de Facebook, desveló su propia versión de inteligencia artificial detrás de aplicaciones como ChatGPT, y afirmó que daría acceso a los investigadores para encontrar soluciones a los peligros potenciales de la tecnología.
La compañía describió su propia inteligencia artificial (IA), llamada LLaMA, como un modelo “más pequeño y de mayor rendimiento” diseñado para “ayudar a los investigadores a avanzar en su trabajo”, en lo que podría considerarse una crítica velada a la decisión de Microsoft de difundir ampliamente la tecnología, mientras mantiene en secreto el código de programación.
ChatGPT, respaldada por Microsoft, ha causado sensación en todo el mundo por su capacidad para generar en cuestión de segundos textos de gran calidad, como ensayos o poemas, utilizando una tecnología conocida como grandes modelos lingüísticos (LLM, por su sigla en inglés).
Los LLM forman parte de un campo conocido como IA generativa que también incluye la capacidad de ejecutar imágenes, diseños o código de programación de forma casi instantánea a partir de una simple petición.
Microsoft ha estrechado su colaboración con OpenAI, creador de ChatGPT, y a principios de este mes anunció que la tecnología se integraría en su motor de búsqueda Bing, así como en el navegador Edge.
Google, viendo una repentina amenaza al dominio de su motor de búsqueda, anunció rápidamente que lanzaría en breve su propia IA lingüística, conocida como Bard.
Pero reportes de intercambios inquietantes con el chatbot Bing de Microsoft, como amenazas y deseos de robar código nuclear, se hicieron virales, encendiendo las alarmas de que la tecnología no estaba preparada.
Meta dijo que estos problemas, a veces llamados alucinaciones, podrían remediarse de mejor forma si los investigadores tuvieran un mayor acceso a la costosa tecnología.
OpenAI y Microsoft limitan estrictamente el acceso a la tecnología que hay detrás de sus chatbots, lo que suscita críticas de que están prefiriendo los potenciales beneficios a mejorar la tecnología más rápidamente para la sociedad.
“Al compartir el código de LLaMA, otros investigadores pueden probar más fácilmente nuevos enfoques para limitar o eliminar estos problemas”, afirma Meta.
(milenio.com)