Le pide ideas a una inteligencia artificial y obtiene respuestas sorprendentes
IA

Le pide ideas a una inteligencia artificial y obtiene respuestas sorprendentes

El YouTuber británico Tom Scott decidió consultar a una inteligencia artificial ,para generar ideas para su último video. El resultado es tan excelente como espeluznante.

Redacción Mdtech

Tom Scott es un conocido youtuber británico que tiene un estilo distintivo en sus videos que suelen prestarse para la parodia, tanto de humanos como de IA. Pero para su último video, Scott decidió usar esto a su favor.

Después de obtener acceso al generador de texto GPT-3 de OpenAI, Scott lo alimentó con una gran cantidad de sus títulos de videos anteriores para ver si podía generar algunas ideas de historias nuevas y originales. Y después de algunos comienzos en falso, con títulos que eran demasiado aburridos o sin sentido, terminó dando en el clavo.

Scott explica en su video que GPT-3 tiene una configuración llamada Temperatura, que es básicamente un parámetro de predictibilidad. El youtuber explica que cuando bajaba demasiado la temperatura, se generaban títulos de videos existentes, y se repetían una y otra vez. Si la temperatura era demasiado alta, obtenía ideas demasiado raras. Pero cuando logró dar con la temperatura correcta, la inteligencia comenzó a recomendar títulos que, incluso, hacían referencia a lugares reales.

Scott luego explica que la inteligencia artificial, en un momento, sugirió una idea de video que ya había filmado, pero que aún no se ha lanzado, así como algunas otras ideas sólidas para videos fuera del Reino Unido.

Pero la categoría de sugerencia más interesante fue aquella en la que la IA ideó videos que serían geniales de hacer, pero que son completamente ficticios.

Los ejemplos, ilustrados por Scott en el video, incluyen "El cubo blanco en el fin del mundo" y "La luz extraña que flota sobre Oxfordshire". El youtuber luego lee un guión real que la IA generó para otro video titulado "El sueño de una utopía rusa en East Yorkshire" que, aunque completamente ficticio, es aterradoramente plausible.

"Hay una razón por la que la empresa, OpenAI, está poniendo límites y pautas éticas en su generador de texto: es lo único que impide que la gente pida argumentos políticos que suenen humanos, o falsifique comentarios de clientes enojados, o bueno, cualquier cosa", concluye Scott.

Temas

¿Querés recibir notificaciones de alertas?