lunes, 24 de abril de 2023

CHATGPT. LA INTELIGENCIA ARTIFICIAL YA PUEDE HABLAR, PERO NO SABE DE QUÉ HABLA

En 2020, un equipo de Google advirtió sobre los peligros de los loros estocásticos; la analogía no fue gratuita. Los Grandes Modelos de Lenguaje son lo más disruptivo del momento; así funcionan y estos son sus límites 26 de marzo de 2023. Ariel Torres LA NACION Hace muchos años, en una ciudad de la provincia de Buenos Aires, una vecina tenía un loro. Célebre por sus destrezas para replicar el lenguaje humano, nadie sabía que el locuaz volátil escondía además un secreto: también imitaba la voz de su dueña cuando se encontraba solo en casa. Por ejemplo, cuando el cartero tocaba el timbre. –¡Ya va! –le decían desde el interior de la casa, y el buen hombre, en en una época sin celulares, internet, Facebook o WhatsApp, esperaba. Pasado un plazo prudencial, volvía a tocar el timbre, por si acaso. Y recibía de nuevo la respuesta de esa voz que conocía desde hacía años: –¡Ya va! Entonces el cartero seguía aguardando, pacientemente, hasta que la demora se hacía insostenible, y, temiendo importunar más allá de lo que dictan las buenas costumbres, se retiraba intrigado. Pasaron meses hasta que, al encontrarse a la vecina por casualidad en un comercio y pedirle disculpas por haber insistido con los timbrazos en varias ocasiones, supo que la señora nunca había dejado de responderle. Y solo después de atar cabos, la mujer, estupefacta, concluyó: –El loro. Todos se rieron y la anécdota se viralizó rápidamente, hasta convertirse en una de esas historias que se cuentan en las charlas de sobremesa o a la hora de la siesta. Si alguien está pensando que esta anécdota tiene la intención de bajarle el precio al ahora célebre ChatGPT, es exactamente al revés. Es por lo menos admirable que la inteligencia artificial (IA) haya alcanzado el mismo nivel que un organismo vivo para producir un discurso adecuado al contexto. O, para ser enteramente justos (con el loro), producir algo que parece ajustarse al contexto. ¿Por qué la salvedad? Porque ChatGPT funciona sobre la base de redes neuronales; matemática y parámetros, en otras palabras; carece de consciencia, aunque más no sea la consciencia de un loro, y los contextos son para esa red neuronal un asunto estadístico y nada más. Pero ya llegaremos a eso. Me refiero, claro a ChatGPT 3.5, la nueva estrella de la inteligencia artificial y del vertiginoso firmamento tecno. Para quienes no están muy al tanto del asunto, ChatGPT es un chatbot (o bot, a secas) basado en una tecnología de IA relativamente nueva que lo hace capaz de entender (entender en el sentido antedicho) y producir el lenguaje humano con realismo abrumador; imitar sería una palabra más adecuada. Su red neuronal emplea 175.000 millones de parámetros, se maneja en unos 30 idiomas (sobre todo en inglés) y ha sido alimentada con cientos de miles de millones de palabras extraídas de internet. Estas plataformas se llaman Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) y existen desde hace varios años. Por razones de espacio, dejaremos de lado innumerables detalles técnicos, que el lector interesado puede investigar en este documento (100 páginas en inglés). Pero lo que pateó el tablero –una vez más en la historia de la tecnología– fue que la compañía OpenAI, creadora de ChatGPT, puso su bot al alcance de todo el mundo. Por ahora es gratis, pero la nueva versión (la 4, que incorpora avances significativos) ya tiene costo. En todo caso, la movida fue genial y catapultó al amable y aparentemente erudito chatbot a la categoría de rockstar. La comparación entre ChatGPT y el solícito lorito es pertinente por otro motivo. En 2020, un grupo de investigadores del equipo de ética de inteligencia artificial de Google dio a conocer un trabajo titulado Sobre los peligros de los loros estocásticos. ¿Pueden los modelos de lenguaje ser demasiado grandes? El estudio advierte, entre otras cosas, sobre el demencial costo ambiental de poner máquinas a producir lenguaje (entrenar un LLM, sostiene el trabajo, produce 284 toneladas de dióxido de carbono, porque usa supercomputadoras; una persona produce de 5 a 15 toneladas por año); el riesgo de replicar y profundizar nuestros sesgos, y el potencial uso para inundar la red con noticias falsas y difundir virus (esto ya está ocurriendo, aunque con sutilezas significativas). Dos años después, las dos líderes de la investigación, las doctoras Timnit Gebru y Margaret Mitchell, ya no trabajan en Google; aunque, según la compañía, sus despidos no se debieron a sus críticas y advertencias sobre los LLM. Pero no está solo el buscador web. Microsoft acaba de despedir a todo su equipo de ética en IA. En esta industria, tales purgas significan una sola cosa: se avecina una guerra. Sin embargo, la relación entre los modelos de lenguaje basados en IA y los loros no es del todo simétrica. En un minuto lo explicará un experto, pero la destreza de ChatGPT es la de producir texto con casi absoluta corrección. Más allá de eso, mientras el loro tenía un motivo para responder al cartero –quizá un motivo pavloviano, pero motivo al fin–, ChatGPT carece por completo de intenciones. Para despejar posibles confusiones al respecto: es cierto que el lorito respondía cuando sonaba el timbre (eso en la jerga se llama prompt); ChatGPT hace lo mismo, responde a un prompt (lo que le preguntamos). Pero mientras el loro podía optar por no responder, el bot lo hará siempre, sin excepción. Choque de titanes La súbita fama de este chatbot se debe a que somos seres lingüísticos. Sus respuestas, tan humanamente correctas, le confieren una perturbadora apariencia de entidad consciente. Pero el mismo ChatGPT se apresura a aclarar que solo es un “modelo de lenguaje y que carece de sentimientos, consciencia de sí e intereses personales”. “Solo soy un programa”, insiste, y cuando le pregunto qué significa “ser solo un programa”, responde: “Cuando digo que solo soy un programa quiero decir que soy una colección de algoritmos y código diseñados para procesar y analizar datos lingüísticos”. Al parecer no advierte cuán cándidamente está usando la primera persona del singular para hacer una afirmación ontológica. En todo caso, una colección de algoritmos y código tiene un sinónimo menos pomposo: software. Luego del 30 de noviembre de 2022, cuando ChatGPT fue puesto al alcance del público en general, todo lo que hasta ese momento era trendy, empezó a sonar a viejo. El metaverso, los NFT y las criptomonedas quedaron eclipsados por el bot charlatán, y ahora la industria está obsesionada en masa con los grandes modelos de lenguaje y la IA. Bill Gates acaba de calificarlos como “el mayor avance técnico en décadas”. Pero los contendientes en esta batalla no son muchos, porque mientras un niño (o un loro) aprende a hablar solito, se necesitan inversiones colosales en hardware, software y know how para entrenar un LLM. OpenAI fue fundada en 2015 como una organización sin fines de lucro destinada a desarrollar “una IA beneficiosa para la humanidad”. Con el paso del tiempo las cosas dejaron de ser tan altruistas, y su brazo corporativo –OpenAI LP– recibió en 2019 una inversión de 2000 millones de dólares de parte de Microsoft. Vistos los espectaculares resultados de ChatGPT, la compañía cofundada por Gates puso otros 10.000 millones este año, y la semana última integró ChatGPT al paquete Office; ya lo había hecho con su buscador Bing y con Skype. Sin embargo, ni remotamente funciona igual en Skype (por dar un ejemplo) que en el sitio de OpenAI. ChatGPT parece mucho más humano y elabora más profundamente sus respuestas en el sitio de OpenAI que en Skype, donde responde en formato de telegrama. En Bing es un poco más elocuente. Pero los resultados son bastante diferentes de los que da OpenAI. El loro estocástico, al parecer, es muy configurable (sí, lo es). Por ejemplo, al pedirle que resuma El sonido y la furia, de William Faulkner, Bing responde sucintamente: “El sonido y la furia” es la cuarta novela de William Faulkner publicada en 1929. La novela cuenta la historia de la familia Compson y la pérdida de su posición antes respetada en la sociedad sureña. La obra está dividida en cuatro secciones, cada una narrada por un personaje diferente y en un momento diferente del tiempo. La primera sección es narrada por Benjy, un hombre con discapacidad mental que tiene dificultades para distinguir entre el pasado y el presente. La segunda sección es narrada por Quentin, el hermano mayor de Benjy, quien está obsesionado con la idea de que su hermana Caddy ha perdido su virginidad. La tercera sección es narrada por Jason, el hermano menor de Quentin, quien es un hombre amargado y cruel que trabaja como contable en una tienda local. La cuarta sección es narrada por Dilsey, una mujer negra que trabaja para la familia Compson y que es la única persona que parece tener alguna compasión por ellos. En cambio, ChatGPT, en el sitio de OpenAI, dice: “El sonido y la furia” de William Faulkner es una novela experimental que cuenta la historia de la decadente familia Compson en el sur de Estados Unidos a principios del siglo XX. La novela se divide en cuatro secciones narradas por cuatro personajes diferentes, cada uno con su propia perspectiva única y estilo de narración. La primera sección, narrada por Benjy, un hombre discapacitado mental, es una corriente de conciencia fragmentada y caótica que salta de un momento a otro sin ninguna estructura lógica. La segunda sección, narrada por Quentin, el hermano mayor de Benjy, es una meditación obsesiva sobre el tiempo, el incesto y la culpa. La tercera sección es narrada por Jason, el hermano menor de Quentin, y se enfoca en su amargura y resentimiento hacia su familia y su vida. La cuarta y última sección es narrada por Dilsey, una criada negra, y ofrece una visión más objetiva y compasiva de la familia Compson. En conjunto, la novela explora temas como la decadencia de la aristocracia sureña, la pérdida de la inocencia, la identidad y el tiempo. La estructura experimental y los cambios abruptos de narrador y tiempo pueden hacer que la lectura de “El sonido y la furia” sea desafiante, pero es una obra literaria icónica y aclamada por su complejidad y originalidad. Todo indica que para tener una idea más o menos clara de esa novela sigue siendo menester leerla. Lógico. El otro peso pesado en este ring es Google, que se perdió una oportunidad de oro cuando OpenAI le ganó de mano y puso a ChatGPT al alcance de todos. Insólito, porque Google había desarrollado en 2017 una parte central de estas redes neuronales, algo conocido como transformadores (es la T en GPT). Su modelo de lenguaje se llama LaMDA (por Language Model for Dialogue Applications) y fue puesto a disposición de un número reducido de personas en Estados Unidos e Inglaterra el martes último. Su bot fue bautizado Bard, pero esta vez la táctica de la lista de espera difícilmente le dé el mismo resultado que con Gmail en 2004. ChatGPT ya está ahí; al menos, la versión 3.5. El tercer gran competidor es Facebook, con su modelo LLaMA (Large Language Model Meta AI). También con billetera inagotable, pero en medio de una tormenta llamada TikTok, Mark Zuckerberg terminó de convencerse de que el metaverso es hoy un callejón sin salida (o al menos una fruta demasiado alta para resolver sus problemas inmediatos) y decidió enfocarse en el nuevo Santo Grial de la tecnología, las máquinas que hablan. Otros participantes son Amazon, con Alexa Teacher Models; Anthropic, con Claude; la británica DeepMind, con Gopher, y la china Baidu, con Ernie. Hablarle al espejo Alejandro Zuzenberg es un ex-Facebook que hace siete años previó la relevancia que tendrían en el futuro los chatbots y cofundó Botmaker, de la que es actualmente su director ejecutivo. Así que conoce esta industria no solo por dentro, sino desde hace mucho. “Nuestra plataforma es una herramienta que le permite a nuestros clientes crear sus propios chabots –resume; dicho de otro modo, el meteórico ascenso de ChatGPT lo toca de cerca–. Nosotros veníamos jugando en los torneos locales y de pronto el público, en especial las empresas, vieron el campeonato mundial”. Así que su corazonada, cuando cofundó Botmaker, resultó certera. Pero no pierde la objetividad, y su explicación acerca de cómo funcionan estas tecnologías es de las más claras y completas que he oído. ¿Cuál es la diferencia entre ChatGPT y los bots que ya conocíamos? “Hasta ahora, veníamos trabajando con un modelo de lenguaje que se llama ‘de intenciones’ –dice Zuzenberg–. Es decir, el robot entiende lo que el usuario quiere y con eso ejecuta una respuesta prefabricada. Lo novedoso de ChatGPT es que no solo entiende lo que el usuario quiere, sino que es capaz también de generar texto nuevo. No ejecuta una respuesta predeterminada, sino que es capaz de componer texto original. Y el modelo es además predictivo. La IA siempre tiene que ver con la predicción. O sea, entiende un cierto proceso y es capaz de predecir cómo va a continuar dicho proceso. Por ejemplo, ChatGPT es muy bueno para predecir la siguiente palabra que corresponde en una oración que está escribiendo.” Esto es importante, porque establece una primera diferencia clave entre la inteligencia humana y la artificial. Las personas no hablan de forma probabilística; los humanos no predecimos qué corresponde decir a continuación, sino que decimos lo que tenemos la intención de decir. Es más, la Pragmática –la rama de la lingüística que estudia el lenguaje en acción– ha demostrado que al hablar tendemos a no ser gramaticales. El contexto, la entonación, los gestos, las miradas y el lenguaje corporal contribuyen a nuestro propósito: hacernos entender. Así, solemos sacrificar la sintaxis en nombre de algún factor circunstancial (la brevedad, por ejemplo). ChatGPT, entre tanto, escribe como un humano, pero resulta que los humanos no hablamos como escribimos. Con todo, la producción de texto del bot es prodigiosa. ¿Cómo logran escribir tan bien estos grandes modelos de lenguaje? Explica Zuzenberg: “En tecnología veníamos haciendo algoritmos que daban un resultado, tenían un output. Lo que viene a hacer la IA, y en particular el aprendizaje con redes neuronales, es invertir los términos. A la red neuronal le das resultados hasta que se da cuenta de cuál fue el algoritmo anterior. Lo hace con funciones matemáticas de n dimensiones que, del mismo modo que podemos graficar curvas de diferentes variaciones, el volumen de datos que le entregás a la red neuronal le permite entender los algoritmos detrás de ese corpus de datos. Una vez que la máquina entendió o puede representar esos algoritmos empieza a predecir correctamente.” Suena abstruso, pero Zuzenberg da un ejemplo práctico: “Una forma más didáctica de entenderlo es usando matemática de secundario. Dada una función f(x) = x^2 + 5x + 2, podés graficar el valor de f(x) para cada valor posible de x y obtener una curva. Imaginate que el lugar que ocupa cada palabra en una oración o en un texto obedece a una función, pero en lugar de 2 variables, tiene millones. Cada vez que le das un texto, ChatGPT ya sabe cómo calcular cuál es la palabra, frase y puntuación que le corresponde. Sumale a eso un marco programado acerca de cómo se debe responder, y listo, tenés texto generado con un sentido coherente, y comunicado en una estructura diseñada.” Si lo trasladamos al mundo real, el CEO de Botmaker ofrece otro escenario: “Una persona que no sabe ajedrez, después de mirar miles de partidas, va a terminar entendiendo cuáles son las reglas. A ChatGPT, en lugar de darle partidas de ajedrez, le dieron miles de millones de textos, principalmente escritos por humanos, y así aprendió el algoritmo del lenguaje. Lo que aprendió esa red neuronal es el algoritmo conversacional, pero no tiene una representación consciente ni un peso psicológico o emocional sobre lo que está hablando.” O sea que ChatGPT habla, pero no sabe de qué está hablando. Incluso cuando parece que sí sabe. Por eso, como apunta agudamente James Vincent en un reciente artículo de The Verge, muchas personas inteligentes fallan en lo que el autor denomina el Test del Espejo. ¿Qué es? Simple: como ChatGPT está entrenado sobre la base de texto humano y se expresa como si fuera una persona, no nos damos cuenta de que lo que vemos en ese black mirror es en realidad nuestro propio reflejo. Sin embargo, no hay nadie del otro lado de la pantalla, solo se trata de software. “Así es, es solo software –coincide Zuzenberg–. Lo alimentamos con cosas que hicimos los humanos, de modo que funciona como un espejo. Incluye todos nuestros prejuicios, nuestros vicios y nuestras virtudes”. Y nuestras lagunas. El bot parece saberlo todo, pero solo sabe lo que está en su corpus de datos, y a veces confunde mucho las cosas. “Lo que tiene que tener en claro el público es que la información y la veracidad de ChatGPT no son confiables. El bot sabe entender y producir lenguaje, incluso puede resultar creativo, pero no necesariamente tiene información correcta. Hay que advertirle a la gente que la información que da ChatGPT no equivale a buscar uno mismo los datos en Google o en Wikipedia. Sí sirve para resumir un artículo, porque no tenés tiempo de leerlo, o para que te dé alternativas más concisas de algo que estás escribiendo. Eso puede hacerlo porque manipula muy bien el lenguaje. Es una herramienta útil para todos los trabajos de escritorio en los que usamos texto. Pero no es una fuente de información para investigar el mundo o para saber, por ejemplo, cuáles son los mejores restaurantes en esta zona, porque ChatGPT nunca fue a comer”, dice Zuzenberg. Cierto, alguien podría observar que ChatGPT puede ver las calificaciones que los humanos les han dado a los restaurantes. Sí, pero hasta ahora ChatGPT solo podía responder con lo que había en su corpus, que llega hasta septiembre de 2021. Solo en estos días OpenAI activó la función de que el bot saque información en tiempo real de la web. Pero el punto sigue siendo cierto: carece de la experiencia de salir a comer, así que dirá lo que otros dicen, sin ninguna mirada crítica. Eso sí, cuando el bot se pone a escribir, nos parece magia; y a la magia siempre conviene ayudarla un poquito. Por eso, parte de lo que hace ChatGPT está prefabricado. “Algo que no es aparente es que este chabot tiene encima un programa escrito por humanos sobre cómo debe ser el curso de una conversación –continúa Zuzenberg–. Lo primero que hace ChatGPT es repetir lo que le pediste, para demostrar que te entendió. Ese comportamiento está programado. Luego, responde. Gramaticalmente es muy probable que esté correcto, pero el contenido no necesariamente es veraz; puede responder cualquier cosa. Y finalmente tiene lo que se llama un ‘cierre de humildad’, donde relativiza lo que te dijo, por si se equivocó. Así, usando el mismo modelo de lenguaje podríamos modularlo con otro diseño conversacional y hacerlo más agresivo o más alegre”. La pregunta Skynet Por lo dicho hasta aquí, ya se instaló la palabra “copiloto” para esta clase de bots lingüísticos. La máquina hace el trabajo pesado de redactar, leer y resumir, y nosotros corregimos, chequeamos, y eventualmente añadimos el factor humano. Anoten la palabra copiloto. Va a sonar mucho de ahora en más. Aquí se vuelve inevitable la pregunta Skynet. Por ahora, ChatGPT no hace nada solo. ¿Pero en qué punto de la inteligencia artificial estamos respecto del momento hipotético (no sabemos si va a pasar algo así) en el que el código toma la iniciativa y empieza a indagar por las suyas, a hacerse preguntas, a tomar decisiones? “Con el estado del arte de hoy no existe ninguna chance de que a ChatGPT se le dé por empezar a preguntar solo. En mi opinión, tenemos dos o tres olas más, hasta 2035 o 2040, en que nuestra vida va a ser muy mejorada por la IA, en que el trabajo realmente va a cambiar, donde muchos de los empleos que requieren las habilidades humanas con el lenguaje van a estar automatizados o van a poder asistirse con lo que llamamos “copilotos”. Pero la esencia de nuestra vida no va a alterarse en el sentido de que no va a haber una inteligencia paralela con intenciones propias. Qué va a pasar más allá no lo puedo saber”, opina Zuzenberg, pero no descarta que un día las máquinas cobren consciencia y empiecen, por lo tanto, a desarrollar una intención. Está en línea con la respuesta que le dio estos días Grady Booch, jefe de ingeniería de software de IBM Research, a InfoWorld. Frente a la pregunta de si alguna vez habrá máquinas conscientes, responde que en su experiencia la mente puede computarse, así que sí, las máquinas podrían llegar a adquirir consciencia. “Pero no en nuestra vida, ni en la de tus hijos, ni en la de los hijos de tus hijos”, anticipó Booch. Más: en febrero, la revista de ciencia ficción Clarkesworld debió suspender la recepción de colaboraciones porque se vio inundada por textos creados usando ChatGPT; se notaba mucho que eran obras artificiales. Además, ChatGPT solo puede ser gramaticalmente correcto; eso está a años luz del arte literario. El gran escritor (un Borges, un Cortázar, un Joyce, un Kafka) no escribe correctamente; ni siquiera escribe solo bien; lleva el lenguaje humano hasta el límite y un poco más. Clarkesworld ha vuelto a tomar colaboraciones, pero ahora en su sitio hay una contundente advertencia respecto del uso de la IA: no solo no se aceptan textos hechos por bots o con la asistencia de bots, sino que quien lo haga podría ser inhabilitado para enviar colaboraciones en el futuro. La Jihad Butleriana de Dune ya empezó. ¿Sueñan los androides? Por ahora, además, el consenso legal es que las obras creadas por la IA no están protegidas por la propiedad intelectual. Otro debate en puerta. ¿Acaso tenemos miedo de que la IA sea más creativa que los humanos? Más allá de que en arte esto no tiene sentido (basta leer Arte y Poesía, de Heidegger), si acaso fuera cierto, bueno, reconozcámoslos como personas y démosles sus derechos. Según Zuzenberg y Booch, falta mucho para eso. Hay autores que sostienen que faltan mil años para que la IA acceda a algo semejante a la consciencia. ¿Acaso se puede hacer arte automático? Un dadaísta diría que sí. Pero un dadaísta, al revés que la IA, tiene un cuerpo, lo aguarda la muerte al final, sabe de su finitud a la vez que puede concebir lo infinito, tiene sueños inexplicables y un subconsciente, miedos, deseos e intenciones. Es, en suma, humano. Incluso es humano cuando intenta hacer arte automático. La IA logró deducir, tras oír cientos de miles de millones de nuestras palabras, cómo funciona el lenguaje. Algunos lenguajes, en rigor. Porque no los maneja todos con la misma presteza. China, que también corre detrás de esta nueva meta tecnológica, se enfrenta al problema de que en internet hay mucho menos texto en chino que en otros idiomas. A pesar de ser el segundo idioma más hablado del mundo. Al “oírnos” hablar, el bot entendió también nuestras formas de debatir y razonar, lo mismo que nuestros prejuicios y asociaciones inconscientes, me explica Zuzenberg. Puede debatir –incluso debatir consigo–, simular salas de chat, escribir código, comparar y resumir. Pero todavía no es inteligencia generalista. Lo parece, porque puede hablar de todo lo que aprendió (y, a partir de las nuevas versiones, de lo que encuentra en la web). Pero esa inteligencia es una imitación. Se sabe que los loros están entre las aves más listas que existen, lo mismo que los cuervos, otros eximios imitadores. Pero sabemos también que repetir como un loro solo otorga un barniz de inteligencia. Increíble como pueda sonar, hemos privilegiado tanto la memorización y la imitación que ChatGPT ha pasado con honores exámenes de ingreso a prestigiosas universidades y colegios de abogados. Cosa que, ahora empieza a quedar claro, habla más de esos exámenes que de la IA. Está bien, es hora de que repensemos también la educación. No es que los robots se van a quedar con nuestros empleos, sino que durante 5000 años nos acostumbramos a hacer el trabajo de los robots. Y dicho sea de paso, si ni siquiera tenemos una buena definición de qué es la inteligencia humana, ¿por qué insistimos en hablar de inteligencia artificial? Esta brillante pregunta se la formuló Kevin Kelly en un excelente artículo de Wired, en 2017. Esto de atribuirle a las máquinas una características cuya definición nos elude cuando hablamos de humanos termina instalándose allí donde ChatGPT se mueve con aparente soltura: el lenguaje, el discurso público. No es raro que nos esté encandilando. ¿Sueñan los androides con ovejas eléctricas?, se preguntó el enorme Philip K. Dick en el título de la novela que llegaría al cine como Blade Runner, dirigida por Riddley Scott. ¿Sueña ChatGPT? Es pregunta. Ariel Torres

No hay comentarios: