lunes, 24 de abril de 2023

INTELIGENCIA ARTIFICIAL. EL CONOCIMIENTO PORTÁTIL DEL FUTURO?

A pesar de los pronósticos agoreros, la IA podría integrar políticas orientadas a reducir la brecha de conocimientos e impulsar un desarrollo inclusivo 26 de marzo de 2023. Sebastián Ceria. Daniel Yankelevich El gran temor es que desplace al trabajo humano; la alternativa podría ser utilizar la inteligencia artificial a modo de “mochila” que provea herramientas y saberes. El gran temor es que desplace al trabajo humano; la alternativa podría ser utilizar la inteligencia artificial a modo de “mochila” que provea herramientas y saberes En 1950, Alan Turing creó el primer método para comprobar si una computadora podía responder y reaccionar como lo haría un humano: el test de Turing. En esta prueba, un observador neutral interactúa con dos interlocutores: uno de ellos es una computadora y el otro es un humano, pero el observador no sabe cuál es cuál. Si este último no logra descubrir a la computadora mediante una serie de preguntas, decimos que ha superado el test de Turing, ya que contesta “igual que un humano”. Cuando el célebre matemático desarrolló su test, la perspectiva de diseñar una computadora que pudiera superarlo era lejana. Hoy, en cambio, la sorpresa es que la computadora no supere el test. Más aún, con el reciente lanzamiento de la nueva versión del ChatGPT, un desarrollo de OpenAI, las respuestas parecen no solo indistinguibles, sino muchas veces mejores -en cuanto a su claridad conceptual y lingüística- a las que puede ofrecer un humano. De hecho, en algunos campos del trabajo intelectual, las computadoras ya vienen superando el test de Turing cotidianamente con actividades que suplen al trabajo humano. Por ejemplo, hace muy poco tiempo existía (existe todavía) una labor -la taquigrafía en sus versiones más o menos profesionales- que consistía en “desgrabar” una clase o una reunión a partir de una cinta. Hoy, eso mismo se puede hacer desde un audio o un video en forma completamente automatizable usando IA. El ejemplo es básico, pero, ¿hasta dónde puede extrapolarse? ¿Qué capacidades pueden aprenderse o facilitarse usando IA? Imaginemos ahora un test alternativo al de Turing, con un escenario y componentes similares, pero otro objetivo: averiguar si la tecnología IA puede proporcionar saberes de forma extraordinaria y “producir” un experto en tiempo récord. En una habitación tenemos un experto en cierta temática; en otra, una persona sin conocimientos específicos, pero asistido por una “mochila de IA” que está capacitado para usar y le sirve para obtener respuestas sobre esa temática; un tercer participante, neutral, tiene que interactuar con ambos. Si este último no puede distinguir a la persona experta de la inexperta, el test está aprobado. Nuestra prueba es una especulación, pero una especulación necesaria, porque nos permite formularnos las preguntas correctas de cara al futuro: ¿es posible que una persona, con la asistencia tecnológica adecuada, pueda dominar una capacidad o saber a una velocidad inédita? ¿Pueden estos dispositivos de IA ser instrumentos para reducir la diferencia entre expertos y no expertos? Para ser más claros, ¿puede la IA ser un instrumento para acortar la brecha de capacidades y de saberes? Existen elementos para dar una respuesta afirmativa. En primer lugar, la disrupción creada por la IA es un hecho indisputable: la IA está produciendo cambios en la manera que recibimos y construimos conocimientos. Pensemos en los videos de YouTube que enseñan soluciones a una vasta y variada gama de problemas a través de tutoriales: ¿no es una muestra clara de cómo la tecnología ya está ayudando a achicar la brecha de conocimientos, a aumentar y potenciar las capacidades de los no expertos? En segundo lugar, estamos seguros de que la formación que se requiere para interactuar con IA es más fácil de adquirir que una educación formal de varios años. Pensemos en poblaciones que tuvieron una educación básica deficitaria: la disrupción producida por la IA puede ser un instrumento para “saltar” la brecha de formación. Insistamos con el potencial: puede serlo, si esa “mochila” se piensa y planifica en una estrategia integral de desarrollo inclusivo y sustentable. Demos un ejemplo de la IA como salto en el dominio de una determinada disciplina: la programación. Las diferencias de productividad entre los programadores expertos y los programadores amateur es muy grande. En varios análisis que la ACM (Asociación Profesional Internacional de Computación) realizó a lo largo de los años, reportó diferencias de 700% en rendimiento entre ambos perfiles. Por otro lado, la IA por sí sola no está capacitada para programar sin supervisión directa: seguramente sus resultados son peores que los de un programador amateur. Pero un programador amateur con determinado entrenamiento específico y acceso a asistentes como los que ya existen (Copilot, por ejemplo) puede mejorar mucho y reducir la brecha con un programador excelente, aunque este tenga acceso a la misma herramienta. Es decir que la IA, en este campo, ayuda a reducir la brecha de capacidades, porque tiene un mayor efecto positivo en el no experto que en el experto. No es obvio que la vaya a tener en otros campos, pero sí que la posibilidad existe. Hay algo que sí es obvio o evidente: esas “mochilas IA” no van a ser un bien común en el futuro y no van a ser accesibles para todos por el solo hecho de que vayan a existir. Incluso, si fuéramos a usarlas para saltar brechas, ¿quién tendrá esas “mochilas”? ¿qué formación debe tener alguien para poder aprovechar todo su potencial? ¿se podrán fabricar como se fabrica un martillo? ¿quién puede o debe fabricarlas? ¿quién financiarlas? Entonces, ¿puede la IA ayudar a reducir la brecha de capacidades y de saberes? La respuesta está en nuestras manos, como sociedad. Se trata de definir una estrategia para usarla en esa dirección. Lo que ocurra puede tener consecuencias opuestas: ampliar o reducir las diferencias existentes. Es muy difícil que estos dispositivos vayan a ser instrumentos de igualación si solo vemos pasar el tren del futuro desde el terraplén del statu quo. La estrategia del laissez faire agranda la brecha entre sociedades que invierten billones de dólares en desarrollar estas capacidades y sociedades que no. Por eso, es imprescindible tener políticas públicas que empujen la posibilidad de que la IA forme parte de una dinámica virtuosa que ayude a nivelar para arriba. Entonces, ¿puede la IA ayudar a reducir la brecha de capacidades y de saberes? La respuesta está en nuestras manos, como sociedad. Se trata de definir una estrategia para usarla en esa dirección. Lo que ocurra puede tener consecuencias opuestas: ampliar o reducir las diferencias existentes. El resultado no es inevitable ni está dado: se trata de cómo decidimos actuar de cara a esta y a otras innovaciones tecnológicas. Debemos investigar, diseñar e implementar políticas públicas que incentiven el desarrollo de una IA inclusiva, capaz de revolucionar la educación, el mercado de trabajo y el potencial económico de nuestro país: ese es un camino posible para conseguir una sociedad más igualitaria. Quizás estemos ante una de las mayores oportunidades con potencial igualador de los últimos tiempos, pero debemos asegurarnos que la tecnología sea utilizada para reducir la brecha de conocimientos y no para generar el efecto contrario. Ptresidente y director de Datos de Fundar. Sebastián Ceria. Daniel Yankelevich

CHATGPT. LA INTELIGENCIA ARTIFICIAL YA PUEDE HABLAR, PERO NO SABE DE QUÉ HABLA

En 2020, un equipo de Google advirtió sobre los peligros de los loros estocásticos; la analogía no fue gratuita. Los Grandes Modelos de Lenguaje son lo más disruptivo del momento; así funcionan y estos son sus límites 26 de marzo de 2023. Ariel Torres LA NACION Hace muchos años, en una ciudad de la provincia de Buenos Aires, una vecina tenía un loro. Célebre por sus destrezas para replicar el lenguaje humano, nadie sabía que el locuaz volátil escondía además un secreto: también imitaba la voz de su dueña cuando se encontraba solo en casa. Por ejemplo, cuando el cartero tocaba el timbre. –¡Ya va! –le decían desde el interior de la casa, y el buen hombre, en en una época sin celulares, internet, Facebook o WhatsApp, esperaba. Pasado un plazo prudencial, volvía a tocar el timbre, por si acaso. Y recibía de nuevo la respuesta de esa voz que conocía desde hacía años: –¡Ya va! Entonces el cartero seguía aguardando, pacientemente, hasta que la demora se hacía insostenible, y, temiendo importunar más allá de lo que dictan las buenas costumbres, se retiraba intrigado. Pasaron meses hasta que, al encontrarse a la vecina por casualidad en un comercio y pedirle disculpas por haber insistido con los timbrazos en varias ocasiones, supo que la señora nunca había dejado de responderle. Y solo después de atar cabos, la mujer, estupefacta, concluyó: –El loro. Todos se rieron y la anécdota se viralizó rápidamente, hasta convertirse en una de esas historias que se cuentan en las charlas de sobremesa o a la hora de la siesta. Si alguien está pensando que esta anécdota tiene la intención de bajarle el precio al ahora célebre ChatGPT, es exactamente al revés. Es por lo menos admirable que la inteligencia artificial (IA) haya alcanzado el mismo nivel que un organismo vivo para producir un discurso adecuado al contexto. O, para ser enteramente justos (con el loro), producir algo que parece ajustarse al contexto. ¿Por qué la salvedad? Porque ChatGPT funciona sobre la base de redes neuronales; matemática y parámetros, en otras palabras; carece de consciencia, aunque más no sea la consciencia de un loro, y los contextos son para esa red neuronal un asunto estadístico y nada más. Pero ya llegaremos a eso. Me refiero, claro a ChatGPT 3.5, la nueva estrella de la inteligencia artificial y del vertiginoso firmamento tecno. Para quienes no están muy al tanto del asunto, ChatGPT es un chatbot (o bot, a secas) basado en una tecnología de IA relativamente nueva que lo hace capaz de entender (entender en el sentido antedicho) y producir el lenguaje humano con realismo abrumador; imitar sería una palabra más adecuada. Su red neuronal emplea 175.000 millones de parámetros, se maneja en unos 30 idiomas (sobre todo en inglés) y ha sido alimentada con cientos de miles de millones de palabras extraídas de internet. Estas plataformas se llaman Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) y existen desde hace varios años. Por razones de espacio, dejaremos de lado innumerables detalles técnicos, que el lector interesado puede investigar en este documento (100 páginas en inglés). Pero lo que pateó el tablero –una vez más en la historia de la tecnología– fue que la compañía OpenAI, creadora de ChatGPT, puso su bot al alcance de todo el mundo. Por ahora es gratis, pero la nueva versión (la 4, que incorpora avances significativos) ya tiene costo. En todo caso, la movida fue genial y catapultó al amable y aparentemente erudito chatbot a la categoría de rockstar. La comparación entre ChatGPT y el solícito lorito es pertinente por otro motivo. En 2020, un grupo de investigadores del equipo de ética de inteligencia artificial de Google dio a conocer un trabajo titulado Sobre los peligros de los loros estocásticos. ¿Pueden los modelos de lenguaje ser demasiado grandes? El estudio advierte, entre otras cosas, sobre el demencial costo ambiental de poner máquinas a producir lenguaje (entrenar un LLM, sostiene el trabajo, produce 284 toneladas de dióxido de carbono, porque usa supercomputadoras; una persona produce de 5 a 15 toneladas por año); el riesgo de replicar y profundizar nuestros sesgos, y el potencial uso para inundar la red con noticias falsas y difundir virus (esto ya está ocurriendo, aunque con sutilezas significativas). Dos años después, las dos líderes de la investigación, las doctoras Timnit Gebru y Margaret Mitchell, ya no trabajan en Google; aunque, según la compañía, sus despidos no se debieron a sus críticas y advertencias sobre los LLM. Pero no está solo el buscador web. Microsoft acaba de despedir a todo su equipo de ética en IA. En esta industria, tales purgas significan una sola cosa: se avecina una guerra. Sin embargo, la relación entre los modelos de lenguaje basados en IA y los loros no es del todo simétrica. En un minuto lo explicará un experto, pero la destreza de ChatGPT es la de producir texto con casi absoluta corrección. Más allá de eso, mientras el loro tenía un motivo para responder al cartero –quizá un motivo pavloviano, pero motivo al fin–, ChatGPT carece por completo de intenciones. Para despejar posibles confusiones al respecto: es cierto que el lorito respondía cuando sonaba el timbre (eso en la jerga se llama prompt); ChatGPT hace lo mismo, responde a un prompt (lo que le preguntamos). Pero mientras el loro podía optar por no responder, el bot lo hará siempre, sin excepción. Choque de titanes La súbita fama de este chatbot se debe a que somos seres lingüísticos. Sus respuestas, tan humanamente correctas, le confieren una perturbadora apariencia de entidad consciente. Pero el mismo ChatGPT se apresura a aclarar que solo es un “modelo de lenguaje y que carece de sentimientos, consciencia de sí e intereses personales”. “Solo soy un programa”, insiste, y cuando le pregunto qué significa “ser solo un programa”, responde: “Cuando digo que solo soy un programa quiero decir que soy una colección de algoritmos y código diseñados para procesar y analizar datos lingüísticos”. Al parecer no advierte cuán cándidamente está usando la primera persona del singular para hacer una afirmación ontológica. En todo caso, una colección de algoritmos y código tiene un sinónimo menos pomposo: software. Luego del 30 de noviembre de 2022, cuando ChatGPT fue puesto al alcance del público en general, todo lo que hasta ese momento era trendy, empezó a sonar a viejo. El metaverso, los NFT y las criptomonedas quedaron eclipsados por el bot charlatán, y ahora la industria está obsesionada en masa con los grandes modelos de lenguaje y la IA. Bill Gates acaba de calificarlos como “el mayor avance técnico en décadas”. Pero los contendientes en esta batalla no son muchos, porque mientras un niño (o un loro) aprende a hablar solito, se necesitan inversiones colosales en hardware, software y know how para entrenar un LLM. OpenAI fue fundada en 2015 como una organización sin fines de lucro destinada a desarrollar “una IA beneficiosa para la humanidad”. Con el paso del tiempo las cosas dejaron de ser tan altruistas, y su brazo corporativo –OpenAI LP– recibió en 2019 una inversión de 2000 millones de dólares de parte de Microsoft. Vistos los espectaculares resultados de ChatGPT, la compañía cofundada por Gates puso otros 10.000 millones este año, y la semana última integró ChatGPT al paquete Office; ya lo había hecho con su buscador Bing y con Skype. Sin embargo, ni remotamente funciona igual en Skype (por dar un ejemplo) que en el sitio de OpenAI. ChatGPT parece mucho más humano y elabora más profundamente sus respuestas en el sitio de OpenAI que en Skype, donde responde en formato de telegrama. En Bing es un poco más elocuente. Pero los resultados son bastante diferentes de los que da OpenAI. El loro estocástico, al parecer, es muy configurable (sí, lo es). Por ejemplo, al pedirle que resuma El sonido y la furia, de William Faulkner, Bing responde sucintamente: “El sonido y la furia” es la cuarta novela de William Faulkner publicada en 1929. La novela cuenta la historia de la familia Compson y la pérdida de su posición antes respetada en la sociedad sureña. La obra está dividida en cuatro secciones, cada una narrada por un personaje diferente y en un momento diferente del tiempo. La primera sección es narrada por Benjy, un hombre con discapacidad mental que tiene dificultades para distinguir entre el pasado y el presente. La segunda sección es narrada por Quentin, el hermano mayor de Benjy, quien está obsesionado con la idea de que su hermana Caddy ha perdido su virginidad. La tercera sección es narrada por Jason, el hermano menor de Quentin, quien es un hombre amargado y cruel que trabaja como contable en una tienda local. La cuarta sección es narrada por Dilsey, una mujer negra que trabaja para la familia Compson y que es la única persona que parece tener alguna compasión por ellos. En cambio, ChatGPT, en el sitio de OpenAI, dice: “El sonido y la furia” de William Faulkner es una novela experimental que cuenta la historia de la decadente familia Compson en el sur de Estados Unidos a principios del siglo XX. La novela se divide en cuatro secciones narradas por cuatro personajes diferentes, cada uno con su propia perspectiva única y estilo de narración. La primera sección, narrada por Benjy, un hombre discapacitado mental, es una corriente de conciencia fragmentada y caótica que salta de un momento a otro sin ninguna estructura lógica. La segunda sección, narrada por Quentin, el hermano mayor de Benjy, es una meditación obsesiva sobre el tiempo, el incesto y la culpa. La tercera sección es narrada por Jason, el hermano menor de Quentin, y se enfoca en su amargura y resentimiento hacia su familia y su vida. La cuarta y última sección es narrada por Dilsey, una criada negra, y ofrece una visión más objetiva y compasiva de la familia Compson. En conjunto, la novela explora temas como la decadencia de la aristocracia sureña, la pérdida de la inocencia, la identidad y el tiempo. La estructura experimental y los cambios abruptos de narrador y tiempo pueden hacer que la lectura de “El sonido y la furia” sea desafiante, pero es una obra literaria icónica y aclamada por su complejidad y originalidad. Todo indica que para tener una idea más o menos clara de esa novela sigue siendo menester leerla. Lógico. El otro peso pesado en este ring es Google, que se perdió una oportunidad de oro cuando OpenAI le ganó de mano y puso a ChatGPT al alcance de todos. Insólito, porque Google había desarrollado en 2017 una parte central de estas redes neuronales, algo conocido como transformadores (es la T en GPT). Su modelo de lenguaje se llama LaMDA (por Language Model for Dialogue Applications) y fue puesto a disposición de un número reducido de personas en Estados Unidos e Inglaterra el martes último. Su bot fue bautizado Bard, pero esta vez la táctica de la lista de espera difícilmente le dé el mismo resultado que con Gmail en 2004. ChatGPT ya está ahí; al menos, la versión 3.5. El tercer gran competidor es Facebook, con su modelo LLaMA (Large Language Model Meta AI). También con billetera inagotable, pero en medio de una tormenta llamada TikTok, Mark Zuckerberg terminó de convencerse de que el metaverso es hoy un callejón sin salida (o al menos una fruta demasiado alta para resolver sus problemas inmediatos) y decidió enfocarse en el nuevo Santo Grial de la tecnología, las máquinas que hablan. Otros participantes son Amazon, con Alexa Teacher Models; Anthropic, con Claude; la británica DeepMind, con Gopher, y la china Baidu, con Ernie. Hablarle al espejo Alejandro Zuzenberg es un ex-Facebook que hace siete años previó la relevancia que tendrían en el futuro los chatbots y cofundó Botmaker, de la que es actualmente su director ejecutivo. Así que conoce esta industria no solo por dentro, sino desde hace mucho. “Nuestra plataforma es una herramienta que le permite a nuestros clientes crear sus propios chabots –resume; dicho de otro modo, el meteórico ascenso de ChatGPT lo toca de cerca–. Nosotros veníamos jugando en los torneos locales y de pronto el público, en especial las empresas, vieron el campeonato mundial”. Así que su corazonada, cuando cofundó Botmaker, resultó certera. Pero no pierde la objetividad, y su explicación acerca de cómo funcionan estas tecnologías es de las más claras y completas que he oído. ¿Cuál es la diferencia entre ChatGPT y los bots que ya conocíamos? “Hasta ahora, veníamos trabajando con un modelo de lenguaje que se llama ‘de intenciones’ –dice Zuzenberg–. Es decir, el robot entiende lo que el usuario quiere y con eso ejecuta una respuesta prefabricada. Lo novedoso de ChatGPT es que no solo entiende lo que el usuario quiere, sino que es capaz también de generar texto nuevo. No ejecuta una respuesta predeterminada, sino que es capaz de componer texto original. Y el modelo es además predictivo. La IA siempre tiene que ver con la predicción. O sea, entiende un cierto proceso y es capaz de predecir cómo va a continuar dicho proceso. Por ejemplo, ChatGPT es muy bueno para predecir la siguiente palabra que corresponde en una oración que está escribiendo.” Esto es importante, porque establece una primera diferencia clave entre la inteligencia humana y la artificial. Las personas no hablan de forma probabilística; los humanos no predecimos qué corresponde decir a continuación, sino que decimos lo que tenemos la intención de decir. Es más, la Pragmática –la rama de la lingüística que estudia el lenguaje en acción– ha demostrado que al hablar tendemos a no ser gramaticales. El contexto, la entonación, los gestos, las miradas y el lenguaje corporal contribuyen a nuestro propósito: hacernos entender. Así, solemos sacrificar la sintaxis en nombre de algún factor circunstancial (la brevedad, por ejemplo). ChatGPT, entre tanto, escribe como un humano, pero resulta que los humanos no hablamos como escribimos. Con todo, la producción de texto del bot es prodigiosa. ¿Cómo logran escribir tan bien estos grandes modelos de lenguaje? Explica Zuzenberg: “En tecnología veníamos haciendo algoritmos que daban un resultado, tenían un output. Lo que viene a hacer la IA, y en particular el aprendizaje con redes neuronales, es invertir los términos. A la red neuronal le das resultados hasta que se da cuenta de cuál fue el algoritmo anterior. Lo hace con funciones matemáticas de n dimensiones que, del mismo modo que podemos graficar curvas de diferentes variaciones, el volumen de datos que le entregás a la red neuronal le permite entender los algoritmos detrás de ese corpus de datos. Una vez que la máquina entendió o puede representar esos algoritmos empieza a predecir correctamente.” Suena abstruso, pero Zuzenberg da un ejemplo práctico: “Una forma más didáctica de entenderlo es usando matemática de secundario. Dada una función f(x) = x^2 + 5x + 2, podés graficar el valor de f(x) para cada valor posible de x y obtener una curva. Imaginate que el lugar que ocupa cada palabra en una oración o en un texto obedece a una función, pero en lugar de 2 variables, tiene millones. Cada vez que le das un texto, ChatGPT ya sabe cómo calcular cuál es la palabra, frase y puntuación que le corresponde. Sumale a eso un marco programado acerca de cómo se debe responder, y listo, tenés texto generado con un sentido coherente, y comunicado en una estructura diseñada.” Si lo trasladamos al mundo real, el CEO de Botmaker ofrece otro escenario: “Una persona que no sabe ajedrez, después de mirar miles de partidas, va a terminar entendiendo cuáles son las reglas. A ChatGPT, en lugar de darle partidas de ajedrez, le dieron miles de millones de textos, principalmente escritos por humanos, y así aprendió el algoritmo del lenguaje. Lo que aprendió esa red neuronal es el algoritmo conversacional, pero no tiene una representación consciente ni un peso psicológico o emocional sobre lo que está hablando.” O sea que ChatGPT habla, pero no sabe de qué está hablando. Incluso cuando parece que sí sabe. Por eso, como apunta agudamente James Vincent en un reciente artículo de The Verge, muchas personas inteligentes fallan en lo que el autor denomina el Test del Espejo. ¿Qué es? Simple: como ChatGPT está entrenado sobre la base de texto humano y se expresa como si fuera una persona, no nos damos cuenta de que lo que vemos en ese black mirror es en realidad nuestro propio reflejo. Sin embargo, no hay nadie del otro lado de la pantalla, solo se trata de software. “Así es, es solo software –coincide Zuzenberg–. Lo alimentamos con cosas que hicimos los humanos, de modo que funciona como un espejo. Incluye todos nuestros prejuicios, nuestros vicios y nuestras virtudes”. Y nuestras lagunas. El bot parece saberlo todo, pero solo sabe lo que está en su corpus de datos, y a veces confunde mucho las cosas. “Lo que tiene que tener en claro el público es que la información y la veracidad de ChatGPT no son confiables. El bot sabe entender y producir lenguaje, incluso puede resultar creativo, pero no necesariamente tiene información correcta. Hay que advertirle a la gente que la información que da ChatGPT no equivale a buscar uno mismo los datos en Google o en Wikipedia. Sí sirve para resumir un artículo, porque no tenés tiempo de leerlo, o para que te dé alternativas más concisas de algo que estás escribiendo. Eso puede hacerlo porque manipula muy bien el lenguaje. Es una herramienta útil para todos los trabajos de escritorio en los que usamos texto. Pero no es una fuente de información para investigar el mundo o para saber, por ejemplo, cuáles son los mejores restaurantes en esta zona, porque ChatGPT nunca fue a comer”, dice Zuzenberg. Cierto, alguien podría observar que ChatGPT puede ver las calificaciones que los humanos les han dado a los restaurantes. Sí, pero hasta ahora ChatGPT solo podía responder con lo que había en su corpus, que llega hasta septiembre de 2021. Solo en estos días OpenAI activó la función de que el bot saque información en tiempo real de la web. Pero el punto sigue siendo cierto: carece de la experiencia de salir a comer, así que dirá lo que otros dicen, sin ninguna mirada crítica. Eso sí, cuando el bot se pone a escribir, nos parece magia; y a la magia siempre conviene ayudarla un poquito. Por eso, parte de lo que hace ChatGPT está prefabricado. “Algo que no es aparente es que este chabot tiene encima un programa escrito por humanos sobre cómo debe ser el curso de una conversación –continúa Zuzenberg–. Lo primero que hace ChatGPT es repetir lo que le pediste, para demostrar que te entendió. Ese comportamiento está programado. Luego, responde. Gramaticalmente es muy probable que esté correcto, pero el contenido no necesariamente es veraz; puede responder cualquier cosa. Y finalmente tiene lo que se llama un ‘cierre de humildad’, donde relativiza lo que te dijo, por si se equivocó. Así, usando el mismo modelo de lenguaje podríamos modularlo con otro diseño conversacional y hacerlo más agresivo o más alegre”. La pregunta Skynet Por lo dicho hasta aquí, ya se instaló la palabra “copiloto” para esta clase de bots lingüísticos. La máquina hace el trabajo pesado de redactar, leer y resumir, y nosotros corregimos, chequeamos, y eventualmente añadimos el factor humano. Anoten la palabra copiloto. Va a sonar mucho de ahora en más. Aquí se vuelve inevitable la pregunta Skynet. Por ahora, ChatGPT no hace nada solo. ¿Pero en qué punto de la inteligencia artificial estamos respecto del momento hipotético (no sabemos si va a pasar algo así) en el que el código toma la iniciativa y empieza a indagar por las suyas, a hacerse preguntas, a tomar decisiones? “Con el estado del arte de hoy no existe ninguna chance de que a ChatGPT se le dé por empezar a preguntar solo. En mi opinión, tenemos dos o tres olas más, hasta 2035 o 2040, en que nuestra vida va a ser muy mejorada por la IA, en que el trabajo realmente va a cambiar, donde muchos de los empleos que requieren las habilidades humanas con el lenguaje van a estar automatizados o van a poder asistirse con lo que llamamos “copilotos”. Pero la esencia de nuestra vida no va a alterarse en el sentido de que no va a haber una inteligencia paralela con intenciones propias. Qué va a pasar más allá no lo puedo saber”, opina Zuzenberg, pero no descarta que un día las máquinas cobren consciencia y empiecen, por lo tanto, a desarrollar una intención. Está en línea con la respuesta que le dio estos días Grady Booch, jefe de ingeniería de software de IBM Research, a InfoWorld. Frente a la pregunta de si alguna vez habrá máquinas conscientes, responde que en su experiencia la mente puede computarse, así que sí, las máquinas podrían llegar a adquirir consciencia. “Pero no en nuestra vida, ni en la de tus hijos, ni en la de los hijos de tus hijos”, anticipó Booch. Más: en febrero, la revista de ciencia ficción Clarkesworld debió suspender la recepción de colaboraciones porque se vio inundada por textos creados usando ChatGPT; se notaba mucho que eran obras artificiales. Además, ChatGPT solo puede ser gramaticalmente correcto; eso está a años luz del arte literario. El gran escritor (un Borges, un Cortázar, un Joyce, un Kafka) no escribe correctamente; ni siquiera escribe solo bien; lleva el lenguaje humano hasta el límite y un poco más. Clarkesworld ha vuelto a tomar colaboraciones, pero ahora en su sitio hay una contundente advertencia respecto del uso de la IA: no solo no se aceptan textos hechos por bots o con la asistencia de bots, sino que quien lo haga podría ser inhabilitado para enviar colaboraciones en el futuro. La Jihad Butleriana de Dune ya empezó. ¿Sueñan los androides? Por ahora, además, el consenso legal es que las obras creadas por la IA no están protegidas por la propiedad intelectual. Otro debate en puerta. ¿Acaso tenemos miedo de que la IA sea más creativa que los humanos? Más allá de que en arte esto no tiene sentido (basta leer Arte y Poesía, de Heidegger), si acaso fuera cierto, bueno, reconozcámoslos como personas y démosles sus derechos. Según Zuzenberg y Booch, falta mucho para eso. Hay autores que sostienen que faltan mil años para que la IA acceda a algo semejante a la consciencia. ¿Acaso se puede hacer arte automático? Un dadaísta diría que sí. Pero un dadaísta, al revés que la IA, tiene un cuerpo, lo aguarda la muerte al final, sabe de su finitud a la vez que puede concebir lo infinito, tiene sueños inexplicables y un subconsciente, miedos, deseos e intenciones. Es, en suma, humano. Incluso es humano cuando intenta hacer arte automático. La IA logró deducir, tras oír cientos de miles de millones de nuestras palabras, cómo funciona el lenguaje. Algunos lenguajes, en rigor. Porque no los maneja todos con la misma presteza. China, que también corre detrás de esta nueva meta tecnológica, se enfrenta al problema de que en internet hay mucho menos texto en chino que en otros idiomas. A pesar de ser el segundo idioma más hablado del mundo. Al “oírnos” hablar, el bot entendió también nuestras formas de debatir y razonar, lo mismo que nuestros prejuicios y asociaciones inconscientes, me explica Zuzenberg. Puede debatir –incluso debatir consigo–, simular salas de chat, escribir código, comparar y resumir. Pero todavía no es inteligencia generalista. Lo parece, porque puede hablar de todo lo que aprendió (y, a partir de las nuevas versiones, de lo que encuentra en la web). Pero esa inteligencia es una imitación. Se sabe que los loros están entre las aves más listas que existen, lo mismo que los cuervos, otros eximios imitadores. Pero sabemos también que repetir como un loro solo otorga un barniz de inteligencia. Increíble como pueda sonar, hemos privilegiado tanto la memorización y la imitación que ChatGPT ha pasado con honores exámenes de ingreso a prestigiosas universidades y colegios de abogados. Cosa que, ahora empieza a quedar claro, habla más de esos exámenes que de la IA. Está bien, es hora de que repensemos también la educación. No es que los robots se van a quedar con nuestros empleos, sino que durante 5000 años nos acostumbramos a hacer el trabajo de los robots. Y dicho sea de paso, si ni siquiera tenemos una buena definición de qué es la inteligencia humana, ¿por qué insistimos en hablar de inteligencia artificial? Esta brillante pregunta se la formuló Kevin Kelly en un excelente artículo de Wired, en 2017. Esto de atribuirle a las máquinas una características cuya definición nos elude cuando hablamos de humanos termina instalándose allí donde ChatGPT se mueve con aparente soltura: el lenguaje, el discurso público. No es raro que nos esté encandilando. ¿Sueñan los androides con ovejas eléctricas?, se preguntó el enorme Philip K. Dick en el título de la novela que llegaría al cine como Blade Runner, dirigida por Riddley Scott. ¿Sueña ChatGPT? Es pregunta. Ariel Torres

BILL GATES: IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN

Bill Gates, fundador y ex CEO de Microsoft, estuvo presente en la Cumbre ASU+GSV en San Diego y habló sobre el impacto que tendrá la inteligencia artificial (IA) en los sectores educativos. Además, afirmó que la IA será "un tutor tan bueno como cualquier humano" y que las inversiones "del sector privado jugarán un papel clave". Por otro lado, advirtió sobre los peligros que traerá la automatización. ¿Cómo impactará la inteligencia artificial en la educación según Bill Gates? Bill Gates afirmó que la IA "creará nuevos niveles de equidad", ya que los estudiantes podrán acceder a una educación de calidad independientemente de los recursos económicos que tengan. A su vez, sumó que la tecnología ayudará a los estudiantes que "no puedan pagar tutorías privadas individuales". "La tecnología finalmente llenará ese vacío", añadió el CEO de Microsoft. Bill Gates considera que la IA "sorprenderá mucho la forma en que ayuda con la lectura". Además, dijo que "podría funcionar como un asistente de lectura e investigación". Pese al gran avance de las inteligencias artificiales como ChatGPT, el magnate considera que "aún no son tan sólidos en matemáticas". El multimillonario cree que la IA es especialmente útil en la "lectura y escritura". Pero que "dentro de los próximos 18 meses también para las matemáticas". "Soy bastante optimista de que el campo de la educación mejorará", cerró Bill Gates, CEO de Microsoft. ¿Qué consejos dio Bill Gates para alcanzar el éxito? 1. Aprender de manera constante Bill Gates incorpora el hábito de aprender algo nuevo todos los días. Además, tiene como objetivo leer alrededor de 50 libros al año y le dedica una hora al día para leer y aprender. 2. Controlar los gastos A pesar de ser uno de los hombres más ricos del mundo, Gates tiene un plan de gastos muy claro. En una entrevista realizada en 1998, contó que deseaba "tener suficiente dinero en el banco" para pagar su salario anual, aunque no se lo paguen, y que se atiene a eso "la mayor parte del tiempo". Por esto, el magnate invierte en educación, ya que considera que es el activo más rentable y beneficioso a largo plazo. 3. Mantener una rutina Bill Gates es reconocido por su perfecta organización diaria. El CEO de Microsoft divide todas sus actividades en un período de tiempo específico para no quedarse atascado en distracciones excesivas o evasiones.No perder el tiempo 4. No perder el tiempo El magnate aconsejó no desaprovechar oportunidades ni perder tiempo revisando redes sociales, ya que los considera problemas muy comunes en la sociedad actual. En su caso, trabajó desde que era adolescente y consiguió arrancar aquellos momentos que no le permitían enfocarse en su objetivo. 5. Confiar en el trabajo Una cualidad que todo el mundo reconoce en Bill Gates es que confía mucho en su trabajo. El ex esposo de Melinda Gates ama lo que hace y por ende alcana sus metas. "Tenés que contar cada día la historia de lo que hacer y, en mi caso, es trabajar con la gente más inteligente", manifestó en 1998. "Trabajar en nuevos problemas. La competencia, el progreso, la investigación hacen el campo. Creo que estoy en el campo más apasionante que existe", sumó.

TENEMOS DOS VISIONES DEL FUTURO, Y AMBAS SON ATERRADORAS

Jerome Roos 21/04/2023. Clarín.com The New York Times International Weekly “Hay épocas tranquilas, que parecen contener lo que durará para siempre”, escribió en una ocasión el filósofo Karl Jaspers. “Y hay épocas de cambio, en las que se producen trastornos que, en casos extremos, parecen llegar a las raíces de la humanidad”. Está claro que la nuestra es una época de agitación. Mientras la guerra hace estragos en Europa y el mundo enfrenta el costo de la pandemia más mortífera que se recuerda, un ambiente ominoso reina sobre la Tierra. Tras años de agitación económica, malestar social e inestabilidad política, existe la sensación generalizada de que el mundo se encuentra a la deriva, como un barco sin timón en medio de una tormenta espantosa. Y con razón. La humanidad ahora se enfrenta a una confluencia de desafíos sin precedentes en su historia. El cambio climático está alterando rápidamente las condiciones de vida en nuestro planeta. Las tensiones en torno a Ucrania y Taiwán han reavivado la posibilidad de un conflicto entre superpotencias nucleares. Y los vertiginosos avances en inteligencia artificial están planteando preocupaciones serias sobre el riesgo de una catástrofe mundial provocada por la inteligencia artificial. Esta preocupante situación exige nuevas perspectivas para darle sentido a un mundo que cambia rápidamente y averiguar hacia dónde nos dirigimos. En vez de eso, se nos presentan dos visiones conocidas pero muy diferentes del futuro: una narrativa catastrofista, donde el apocalipsis está en todas partes, y una narrativa de progreso, en la que este es el mejor de los mundos posibles. Ambas visiones son contundentes en sus afirmaciones y engañosas en sus análisis. La verdad es que nadie puede saber qué pasará. La crisis de nuestro tiempo ha destapado el futuro de par en par. Los agoreros quizá discreparían. Desde su punto de vista, la humanidad se encuentra en vísperas de cambios cataclísmicos que culminarán de manera inevitable en el colapso de la civilización moderna y el fin del mundo como lo conocemos. Es una visión que se refleja en el creciente número de personas que se preparan para el apocalipsis, búnkeres multimillonarios y series de televisión postapocalípticas. Aunque resulte tentador tachar esos fenómenos culturales de poco serios, reflejan aspectos importantes de la mentalidad de la época y revelan ansiedades profundamente arraigadas sobre la fragilidad del orden existente. En la actualidad, esos temores ya no pueden limitarse a una franja de sobrevivientes armados y fanáticos. La incesante avalancha de crisis que sacuden la Tierra, con inundaciones repentinas e incendios forestales como telón de fondo, ha ido generalizando el sentimiento apocalíptico. Cuando incluso el jefe de las Naciones Unidas advierte que el aumento del nivel del mar podría desencadenar “un éxodo masivo a escala bíblica”, es difícil seguir siendo optimista sobre el estado del mundo. Una encuesta descubrió que más de la mitad de los adultos jóvenes creen ahora que “la humanidad está condenada” y que “el futuro es aterrador”. Al mismo tiempo, en los últimos años ha resurgido un tipo de narrativa muy diferente. Ejemplificada por una serie de libros superventas y charlas TED virales, esta visión tiende a restar importancia a los desafíos presentes e insiste en la inexorable marcha del progreso humano. Si los catastrofistas se preocupan sin cesar por la posibilidad de que las cosas vayan a empeorar, los profetas del progreso sostienen que las cosas no han hecho más que mejorar y que tal vez sigan haciéndolo en el futuro. El mundo panglossiano propuesto por estos nuevos optimistas atrae naturalmente a los defensores del “statu quo”. Si en realidad las cosas van mejor, es evidente que no hay necesidad de un cambio transformador para afrontar los problemas más acuciantes de nuestra época. Mientras nos apeguemos al guion y mantengamos nuestra fe en las cualidades redentoras del ingenio humano y la innovación tecnológica, todos nuestros problemas acabarán resolviéndose. Estas dos visiones, a primera vista, parecen diametralmente opuestas. Pero en realidad son dos caras de la misma moneda. Ambas perspectivas destacan un conjunto de tendencias sobre otro. Los optimistas, por ejemplo, suelen señalar estadísticas engañosas sobre la reducción de la pobreza como prueba de que el mundo se está convirtiendo en un lugar mejor. Los pesimistas, por el contrario, tienden a imaginar las peores posibilidades de colapso climático o financiero y las presentan como hechos inevitables. Es fácil comprender el atractivo de estos relatos unilaterales. Como seres humanos, parece que preferimos imponer narrativas claras y lineales a una realidad caótica e impredecible; es mucho más difícil convivir con la ambigüedad y la contradicción. Sin embargo, este énfasis selectivo origina descripciones del mundo fundamentalmente erróneas. Para comprender la compleja naturaleza de nuestro tiempo, necesitamos ante todo aceptar su aspecto más aterrador: su fundamental carácter abierto. Es precisamente esta incertidumbre radical —no saber dónde estamos ni qué nos espera— lo que provoca tanta ansiedad existencial. Los antropólogos tienen un nombre para este inquietante tipo de experiencia: liminalidad. Suena técnico, pero capta un aspecto esencial de la condición humana. Derivado de la palabra latina para umbral, liminalidad se refería originalmente a la sensación de desorientación que surge durante un rito de paso. En un ritual tradicional de mayoría de edad, por ejemplo, marca el punto en el que el adolescente deja de ser considerado niño pero aún no es reconocido como adulto: en medio, ni aquí ni allá. Cualquier adolescente lo sabe: ese estado de suspensión puede ser un momento muy desconcertante de vivir. Nos encontramos en medio de una dolorosa transición, una especie de interregno, como lo llamó el teórico político italiano Antonio Gramsci, entre un viejo mundo que agoniza y uno nuevo que lucha por nacer. Estos cambios de época están inevitablemente cargados de peligros. Sin embargo, a pesar de su potencial destructivo, también están llenos de posibilidades. Como el historiador del siglo XIX Jacob Burckhardt señaló, las grandes convulsiones de la historia mundial pueden verse “como auténticos signos de vitalidad” que “limpian el terreno” de ideas desacreditadas e instituciones decadentes. “La crisis debe considerarse como un nuevo nexo de crecimiento”, escribió. Cuando aceptamos esta naturaleza de nuestro tiempo, a la vez aterradora y generadora, surge una visión muy diferente del futuro. Ya no concebimos la historia como una línea recta que tiende hacia arriba, hacia una mejora gradual, o hacia abajo, hacia un colapso inevitable. Por el contrario, vemos fases de relativa calma puntuadas de vez en cuando por períodos de gran agitación. Estas crisis pueden ser devastadoras, pero también son el motor de la historia. El progreso y la catástrofe, esos opuestos binarios, están realmente unidos por la cadera. Juntos se enzarzan en una danza sin fin de destrucción creativa, abriendo siempre nuevos caminos y lanzándose en espiral hacia lo desconocido. Nuestra era de agitación puede desembocar en una catástrofe global o incluso en el colapso de la civilización moderna, pero también puede abrir posibilidades de cambio transformador. Ya podemos observar estas dinámicas contradictorias a nuestro alrededor. Una pandemia que mató a millones de personas y estuvo a punto de provocar el colapso económico también ha empoderado a los trabajadores y el aumento del gasto público en el desarrollo de vacunas, lo que pronto podría darnos una cura para el cáncer. Del mismo modo, una gran guerra terrestre europea que ha desplazado a millones de personas y desencadenado una crisis energética mundial ahora está acelerando de manera inadvertida el cambio a las energías renovables, ayudándonos en la lucha contra el cambio climático. Las soluciones que buscamos hoy —sobre la paz mundial, la transición hacia energías limpias y la regulación de la inteligencia artificial— llegarán un día a formar la base de un nuevo orden mundial. Por supuesto, es imposible predecir adónde nos llevarán estos acontecimientos. Todo lo que sabemos es que nuestro rito de paso civilizatorio abre una puerta al futuro. De nosotros depende pasar al otro lado.

YUVAL NOAH HARARI: "NO SÉ SI LOS HUMANOS PODRÁN SOBREVIVIR A LA INTELIGENCIA ARTIFICIAL"

El historiador israelí advierte que el poder se está desplazando por primera vez en la historia. “Hemos inventado algo que nos quita poder. Y está sucediendo tan rápido que la mayoría de la gente ni siquiera entiende lo que está pasando”, alertó 23 Abr, 2023 Yuval Noah Harari, el historiador israelí y autor de “Sapiens”, está alarmado por el avance de la inteligencia artificial (IA). Para él, es un peligroso contrincante al dominio humano de la narración. Tan preocupado está que el mes pasado se sumó a una carta firmada por miles de expertos, entre ellos Elon Musk, en la que se pedía una moratoria de la investigación en programas como Chat GPT, un modelo de IA capaz de interactuar con humanos en textos creativos con matices casi inquietantes. “Se trata de una amenaza especialmente grave para las democracias, más que para los regímenes autoritarios, porque las democracias dependen de la conversación pública”, afirmó Harari en una entrevista publicada en el medio británico The Telegraph. “La democracia es básicamente conversación. Personas que hablan entre sí. Si la IA se apodera de la conversación, se acabó la democracia”, afirmó. Harari advierte espantado que “es la primera tecnología de la historia que crea historias”. Y en su opinión, la creencia colectiva en “historias” -de fe, finanzas y nación, entre otras- ha alimentado el dominio de la humanidad sobre la Tierra. Ahora la IA también tiene ese poder, lo que demuestra que el potencial de la tecnología, tanto para el bien como para el mal, antes considerado distante y teórico, es ahora inmediato y real. “Es que la nueva generación de IA no se limita a difundir los contenidos que producen los humanos. Puede producir el contenido por sí misma. Trate de imaginar lo que significa vivir en un mundo en el que la mayoría de los textos y melodías, y luego las series de televisión y las imágenes, son creados por una inteligencia no humana. Simplemente no entendemos lo que significa ¿Cuáles podrían ser las consecuencias de que la IA se apodere de la cultura?”, alerta. Harari sugiere que la IA pronto irá mucho más lejos, evocando un mundo en el que “entras en Internet y discutes con alguien sobre algún tema político. Puede que incluso te envíen un video hablando. Pero no hay ninguna persona detrás. Todo es IA”. En su distopía, describe The Telegraph, la falsificación digital sintética tampoco sería de un ser humano cualquiera. Dado que las personas cercanas son las que más influyen, podría parecer un amigo o un pariente intentando convencerte de las ventajas de un producto o de su postura sobre el cambio climático, las vacunas o la inmigración. Se trataría, dice Harari, de un poder para manipular el discurso público nunca antes visto, y que haría que los escándalos de influencia en las redes sociales de los últimos 10 años, que ya han desempeñado un papel en elecciones desde Brasil a Estados Unidos, parecieran triviales. El historiador advierte sobre el efecto que podría tener la tecnología si se desatara maliciosamente en el campo de batalla, por parte de regímenes totalitarios. “El régimen nazi se basaba en tecnologías como los trenes, la electricidad y las radios. No tenían herramientas como la inteligencia artificial. Un nuevo régimen en el siglo XXI tendrá herramientas mucho más poderosas. Así que las consecuencias podrían ser mucho más desastrosas. Es algo a lo que no sé si la humanidad podrá sobrevivir”. Frustrado porque siente que el mundo no dimensiona el peligro de la IA como él, agrega: “Tenemos que entender que la IA es la primera tecnología de la historia que puede tomar decisiones por sí misma. Puede tomar decisiones sobre su propio uso. También puede tomar decisiones sobre ti y sobre mí. Esto no es una predicción futura. Esto ya está ocurriendo”. Advierte que el poder se está desplazando por primera vez en la historia. “Hemos inventado algo que nos quita poder. Y está sucediendo tan rápido que la mayoría de la gente ni siquiera entiende lo que está pasando. Tenemos que asegurarnos de que la IA tome buenas decisiones sobre nuestras vidas. Esto es algo que estamos muy lejos de resolver”. El historiador israelí aboga por la regulación de estas herramientas y compara la necesidad de establecer normas a los estudios médicos. “Una compañía farmacéutica no puede lanzar un nuevo medicamento al mercado sin pasar antes por un largo proceso de regulación. Es realmente extraño y aterrador que las corporaciones puedan lanzar herramientas de IA extremadamente potentes a la esfera pública sin ninguna medida de seguridad similar”, dice indignado. Finalmente, advierte que es tarea de los gobiernos procurar esas medidas: “Con todo el debido respeto a Elon Musk y Zuckerberg o a los otros jefes de las grandes empresas tecnológicas, no son elegidos por nadie, no representan a nadie excepto a sus accionistas y no hay razón para confiar en ellos.”