Por qué GPT-3, el nuevo modelo de lenguaje de OpenAI

OpenAI, la famosa organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, y en la que empresas como Microsoft ha invertido cientos de millones de dólares, acaba de publicar uno de sus proyectos más impresionantes hasta la fecha.
Se trata de su nuevo modelo de lenguaje llamado GPT-3, uno que es capaz de programar, diseñar y hasta conversar sobre política y economía. La herramienta fue ofrecida al público como una API open source y el Internet estalló con mucha hipérbole de cómo iba a cambiar el mundo. Y sin embargo, uno de sus mismos creadores admite que el «hype» es mucho con demasiado.
GPT-3 es el modelo de lenguaje más poderoso creado hasta ahora. Es decir, una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores. Es lo que se usa en aplicaciones de procesamiento natural del lenguaje o PNL.
Este en particular es el más poderoso hasta ahora debido a su tamaño. GPT-3 cuenta con 175.000 millones de parámetros. Es tan masivo que su versión anterior, GPT2, tenía solo 1.500 millones de parámetros, y ese generador de textos llegó a ser censurado por la misma OpenAI por creerlo demasiado peligroso.
Sin embargo, en este momento, GPT-3 está algo así como entre un asistente virtual y un autocorrector glorificado. Y esto es importante para entender por qué aunque es sumamente impresionante y un gran avance en el mundo de la IA, por ahora es un tanto inútil.
Hace cosas increíbles que cualquier humano puede hacer mejor
Para que GPT-3 haga su magia un humano debe alimentarlo con una porción de texto. La web está llena de ejemplos muy llamativos. Programadores han usado la API para construir cosas como un generador de interfaces al que le describes lo que quieres y te genera el código, o un traductor de ecuaciones, o hasta un diseñador artificial.
El cielo y la imaginación parecen ser el único límite. Y sin embargo, como el mismo Sam Altman lo dice, GPT-3 es solo un pequeño vistazo al potencial de estos modelos.
GPT-3 no va a reemplazar a los programadores ni a los diseñadores, está muy lejos de hacerlo. El trabajo para diseñar una herramienta que use la API correctamente más las instrucciones necesarias para que GPT-3 genere un resultado aceptable sigue siendo hecho por el humano. El humano sigue programando, solo que aquí el «código» es simplemente el idioma inglés.
El modelo sigue siendo impresionante, y también un tanto peligroso en el caso del enorme potencial que tiene para generar noticias falsas. Para algunos GPT-3 pinta como la cosa más grande desde el Bitcoin y en sus experimentos el modelo es capaz de engañar humanos con las cosas que escribe. Desde artículos de «investigación» o políticos, hasta publicidad y propaganda.

Deja una respuesta

A %d blogueros les gusta esto: