Los investigadores de OpenAI sabían que estaban en algo importante cuando su programa de modelado de lenguaje escribió un ensayo convincente sobre un tema con el que no estaban de acuerdo. Habían estado probando el nuevo sistema de inteligencia artificial alimentándolo con mensajes de texto, haciendo que completara oraciones y párrafos inventados. Luego, dice David Luan, vicepresidente de ingeniería del laboratorio californiano, tuvieron la idea de pedirle que argumentara un punto que consideraban contrario a la intuición. En este caso: por qué el reciclaje es malo para el mundo.”Y escribió este ensayo realmente competente y bien razonado”, dice Luan a The Verge. “Esto es algo que podrías haber enviado al SAT de EE.UU. y obtener una buena puntuación.”

Luan y sus colegas enfatizan que este ensayo en particular fue un poco casual. “Para ser claros, eso sólo ocurre una pequeña fracción del tiempo”, dice el director de investigación de OpenAI, Dario Amodei. Pero demuestra el potencial en bruto de su programa, el último de una nueva generación de algoritmos de generación de texto que anuncian una revolución en el mundo de los ordenadores.

Durante décadas, las máquinas han luchado con las sutilezas del lenguaje humano, e incluso el reciente auge del aprendizaje profundo impulsado por grandes datos y procesadores mejorados ha fracasado a la hora de resolver este desafío cognitivo. Los moderadores algorítmicos siguen pasando por alto los comentarios abusivos, y los chatbots más habladores del mundo apenas pueden mantener viva una conversación. Pero los nuevos métodos de análisis de texto, desarrollados por pesos pesados como Google y OpenAI, así como por investigadores independientes, están desbloqueando talentos nunca antes vistos.

El nuevo algoritmo de OpenAI, denominado GPT-2, es uno de los ejemplos más interesantes hasta la fecha. Sobresale en una tarea conocida como modelado del lenguaje, que pone a prueba la capacidad de un programa para predecir la siguiente palabra en una frase dada. Dale un titular falso, y escribirá el resto del artículo, con citas y estadísticas falsas. Aliméntalo con la primera línea de una historia corta y te dirá lo que le pasa a tu personaje a continuación. Incluso puede escribir ficción para fans, si se le da la pronunciación correcta.

La escritura que produce suele ser fácilmente identificable como no humana. Aunque su gramática y ortografía son generalmente correctas, tiende a desviarse del tema, y el texto que produce carece de coherencia general. Pero lo que realmente impresiona del GPT-2 no es su fluidez, sino su flexibilidad.

Este algoritmo fue entrenado en la tarea de modelar el lenguaje mediante la ingesta de un gran número de artículos, blogs y sitios web. Utilizando sólo estos datos, y sin necesidad de que los ingenieros de OpenAI se encarguen de su reequipamiento, ha conseguido puntuaciones de última generación en una serie de pruebas de idiomas no vistas, lo que se conoce como “aprendizaje a tiros cero”. También puede realizar otras tareas relacionadas con la escritura, como traducir texto de un idioma a otro, resumir artículos largos y responder preguntas de trivialidades.