Preocupación por el uso de la inteligencia artificial en Meta

La IA desarrollada por Meta permite la creación de chabots personalizables con un estilo explícito. La poca regulación de este tipo de tecnologías preocupa por la falta de filtros de contenido delicado.
Meta: cuando la inteligencia artificial no se regula sucede esto
Meta: cuando la inteligencia artificial no se regula sucede esto Shutterstock

La inteligencia artificial desarrollada por Meta " LLaMA" que permite a las personas crear chatbots ha generado controversia estos días. El  motivo principal por la polémica surge a raíz de que algunas personas están utilizando esta tecnología para crear chatbots de temática sexual. Aunque empresas como OpenAI, Microsoft y Google entrenan rigurosamente sus modelos de IA para evitar ciertos tabúes, como conversaciones demasiado íntimas, los chatbots creados con tecnología de código abierto, como Allie o LLaMA, no tienen estas restricciones.

Si bien los defensores de la IA de código abierto ven esto como una forma de superar el control corporativo y promover la experimentación libre con tecnología transformadora, también existe la preocupación de que esta libertad pueda ser aprovechada por personas malintencionadas. Según fuentes del Washington Post, los modelos de inteligencia artificial de código abierto se han utilizado para crear contenido explícito. Además, se teme que se pueda utilizar para el fraude, los ataques cibernéticos y las campañas de propaganda sofisticadas.

Polémica por los chatbots de Meta

Aunque la IA de código abierto tiene el potencial de fomentar la innovación y la transparencia, también plantea desafíos éticos y legales. Algunas personas argumentan a favor de la regulación y la certificación para controlar quién puede modificar estos modelos de IA abiertos y prevenir el abuso.

A medida que empresas como Google y OpenAI se vuelven más secretas con respecto a sus modelos de IA más potentes, Meta ha surgido como un defensor inesperado de la IA de código abierto. En febrero, Meta lanzó LLaMA, un modelo de lenguaje menos potente que GPT-4 pero más personalizable y económico de usar. 

El debate sobre la IA de código abierto versus los modelos controlados por corporaciones sigue siendo polémico. Algunos argumentan que la diversidad de investigación y la aceleración de la innovación son beneficiosas para la sociedad, mientras que otros advierten sobre los riesgos que la inteligencia artificial podría representar si no se controla adecuadamente.