lunes, 24 de abril de 2023

INTELIGENCIA ARTIFICIAL. EL CONOCIMIENTO PORTÁTIL DEL FUTURO?

A pesar de los pronósticos agoreros, la IA podría integrar políticas orientadas a reducir la brecha de conocimientos e impulsar un desarrollo inclusivo 26 de marzo de 2023. Sebastián Ceria. Daniel Yankelevich El gran temor es que desplace al trabajo humano; la alternativa podría ser utilizar la inteligencia artificial a modo de “mochila” que provea herramientas y saberes. El gran temor es que desplace al trabajo humano; la alternativa podría ser utilizar la inteligencia artificial a modo de “mochila” que provea herramientas y saberes En 1950, Alan Turing creó el primer método para comprobar si una computadora podía responder y reaccionar como lo haría un humano: el test de Turing. En esta prueba, un observador neutral interactúa con dos interlocutores: uno de ellos es una computadora y el otro es un humano, pero el observador no sabe cuál es cuál. Si este último no logra descubrir a la computadora mediante una serie de preguntas, decimos que ha superado el test de Turing, ya que contesta “igual que un humano”. Cuando el célebre matemático desarrolló su test, la perspectiva de diseñar una computadora que pudiera superarlo era lejana. Hoy, en cambio, la sorpresa es que la computadora no supere el test. Más aún, con el reciente lanzamiento de la nueva versión del ChatGPT, un desarrollo de OpenAI, las respuestas parecen no solo indistinguibles, sino muchas veces mejores -en cuanto a su claridad conceptual y lingüística- a las que puede ofrecer un humano. De hecho, en algunos campos del trabajo intelectual, las computadoras ya vienen superando el test de Turing cotidianamente con actividades que suplen al trabajo humano. Por ejemplo, hace muy poco tiempo existía (existe todavía) una labor -la taquigrafía en sus versiones más o menos profesionales- que consistía en “desgrabar” una clase o una reunión a partir de una cinta. Hoy, eso mismo se puede hacer desde un audio o un video en forma completamente automatizable usando IA. El ejemplo es básico, pero, ¿hasta dónde puede extrapolarse? ¿Qué capacidades pueden aprenderse o facilitarse usando IA? Imaginemos ahora un test alternativo al de Turing, con un escenario y componentes similares, pero otro objetivo: averiguar si la tecnología IA puede proporcionar saberes de forma extraordinaria y “producir” un experto en tiempo récord. En una habitación tenemos un experto en cierta temática; en otra, una persona sin conocimientos específicos, pero asistido por una “mochila de IA” que está capacitado para usar y le sirve para obtener respuestas sobre esa temática; un tercer participante, neutral, tiene que interactuar con ambos. Si este último no puede distinguir a la persona experta de la inexperta, el test está aprobado. Nuestra prueba es una especulación, pero una especulación necesaria, porque nos permite formularnos las preguntas correctas de cara al futuro: ¿es posible que una persona, con la asistencia tecnológica adecuada, pueda dominar una capacidad o saber a una velocidad inédita? ¿Pueden estos dispositivos de IA ser instrumentos para reducir la diferencia entre expertos y no expertos? Para ser más claros, ¿puede la IA ser un instrumento para acortar la brecha de capacidades y de saberes? Existen elementos para dar una respuesta afirmativa. En primer lugar, la disrupción creada por la IA es un hecho indisputable: la IA está produciendo cambios en la manera que recibimos y construimos conocimientos. Pensemos en los videos de YouTube que enseñan soluciones a una vasta y variada gama de problemas a través de tutoriales: ¿no es una muestra clara de cómo la tecnología ya está ayudando a achicar la brecha de conocimientos, a aumentar y potenciar las capacidades de los no expertos? En segundo lugar, estamos seguros de que la formación que se requiere para interactuar con IA es más fácil de adquirir que una educación formal de varios años. Pensemos en poblaciones que tuvieron una educación básica deficitaria: la disrupción producida por la IA puede ser un instrumento para “saltar” la brecha de formación. Insistamos con el potencial: puede serlo, si esa “mochila” se piensa y planifica en una estrategia integral de desarrollo inclusivo y sustentable. Demos un ejemplo de la IA como salto en el dominio de una determinada disciplina: la programación. Las diferencias de productividad entre los programadores expertos y los programadores amateur es muy grande. En varios análisis que la ACM (Asociación Profesional Internacional de Computación) realizó a lo largo de los años, reportó diferencias de 700% en rendimiento entre ambos perfiles. Por otro lado, la IA por sí sola no está capacitada para programar sin supervisión directa: seguramente sus resultados son peores que los de un programador amateur. Pero un programador amateur con determinado entrenamiento específico y acceso a asistentes como los que ya existen (Copilot, por ejemplo) puede mejorar mucho y reducir la brecha con un programador excelente, aunque este tenga acceso a la misma herramienta. Es decir que la IA, en este campo, ayuda a reducir la brecha de capacidades, porque tiene un mayor efecto positivo en el no experto que en el experto. No es obvio que la vaya a tener en otros campos, pero sí que la posibilidad existe. Hay algo que sí es obvio o evidente: esas “mochilas IA” no van a ser un bien común en el futuro y no van a ser accesibles para todos por el solo hecho de que vayan a existir. Incluso, si fuéramos a usarlas para saltar brechas, ¿quién tendrá esas “mochilas”? ¿qué formación debe tener alguien para poder aprovechar todo su potencial? ¿se podrán fabricar como se fabrica un martillo? ¿quién puede o debe fabricarlas? ¿quién financiarlas? Entonces, ¿puede la IA ayudar a reducir la brecha de capacidades y de saberes? La respuesta está en nuestras manos, como sociedad. Se trata de definir una estrategia para usarla en esa dirección. Lo que ocurra puede tener consecuencias opuestas: ampliar o reducir las diferencias existentes. Es muy difícil que estos dispositivos vayan a ser instrumentos de igualación si solo vemos pasar el tren del futuro desde el terraplén del statu quo. La estrategia del laissez faire agranda la brecha entre sociedades que invierten billones de dólares en desarrollar estas capacidades y sociedades que no. Por eso, es imprescindible tener políticas públicas que empujen la posibilidad de que la IA forme parte de una dinámica virtuosa que ayude a nivelar para arriba. Entonces, ¿puede la IA ayudar a reducir la brecha de capacidades y de saberes? La respuesta está en nuestras manos, como sociedad. Se trata de definir una estrategia para usarla en esa dirección. Lo que ocurra puede tener consecuencias opuestas: ampliar o reducir las diferencias existentes. El resultado no es inevitable ni está dado: se trata de cómo decidimos actuar de cara a esta y a otras innovaciones tecnológicas. Debemos investigar, diseñar e implementar políticas públicas que incentiven el desarrollo de una IA inclusiva, capaz de revolucionar la educación, el mercado de trabajo y el potencial económico de nuestro país: ese es un camino posible para conseguir una sociedad más igualitaria. Quizás estemos ante una de las mayores oportunidades con potencial igualador de los últimos tiempos, pero debemos asegurarnos que la tecnología sea utilizada para reducir la brecha de conocimientos y no para generar el efecto contrario. Ptresidente y director de Datos de Fundar. Sebastián Ceria. Daniel Yankelevich

CHATGPT. LA INTELIGENCIA ARTIFICIAL YA PUEDE HABLAR, PERO NO SABE DE QUÉ HABLA

En 2020, un equipo de Google advirtió sobre los peligros de los loros estocásticos; la analogía no fue gratuita. Los Grandes Modelos de Lenguaje son lo más disruptivo del momento; así funcionan y estos son sus límites 26 de marzo de 2023. Ariel Torres LA NACION Hace muchos años, en una ciudad de la provincia de Buenos Aires, una vecina tenía un loro. Célebre por sus destrezas para replicar el lenguaje humano, nadie sabía que el locuaz volátil escondía además un secreto: también imitaba la voz de su dueña cuando se encontraba solo en casa. Por ejemplo, cuando el cartero tocaba el timbre. –¡Ya va! –le decían desde el interior de la casa, y el buen hombre, en en una época sin celulares, internet, Facebook o WhatsApp, esperaba. Pasado un plazo prudencial, volvía a tocar el timbre, por si acaso. Y recibía de nuevo la respuesta de esa voz que conocía desde hacía años: –¡Ya va! Entonces el cartero seguía aguardando, pacientemente, hasta que la demora se hacía insostenible, y, temiendo importunar más allá de lo que dictan las buenas costumbres, se retiraba intrigado. Pasaron meses hasta que, al encontrarse a la vecina por casualidad en un comercio y pedirle disculpas por haber insistido con los timbrazos en varias ocasiones, supo que la señora nunca había dejado de responderle. Y solo después de atar cabos, la mujer, estupefacta, concluyó: –El loro. Todos se rieron y la anécdota se viralizó rápidamente, hasta convertirse en una de esas historias que se cuentan en las charlas de sobremesa o a la hora de la siesta. Si alguien está pensando que esta anécdota tiene la intención de bajarle el precio al ahora célebre ChatGPT, es exactamente al revés. Es por lo menos admirable que la inteligencia artificial (IA) haya alcanzado el mismo nivel que un organismo vivo para producir un discurso adecuado al contexto. O, para ser enteramente justos (con el loro), producir algo que parece ajustarse al contexto. ¿Por qué la salvedad? Porque ChatGPT funciona sobre la base de redes neuronales; matemática y parámetros, en otras palabras; carece de consciencia, aunque más no sea la consciencia de un loro, y los contextos son para esa red neuronal un asunto estadístico y nada más. Pero ya llegaremos a eso. Me refiero, claro a ChatGPT 3.5, la nueva estrella de la inteligencia artificial y del vertiginoso firmamento tecno. Para quienes no están muy al tanto del asunto, ChatGPT es un chatbot (o bot, a secas) basado en una tecnología de IA relativamente nueva que lo hace capaz de entender (entender en el sentido antedicho) y producir el lenguaje humano con realismo abrumador; imitar sería una palabra más adecuada. Su red neuronal emplea 175.000 millones de parámetros, se maneja en unos 30 idiomas (sobre todo en inglés) y ha sido alimentada con cientos de miles de millones de palabras extraídas de internet. Estas plataformas se llaman Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) y existen desde hace varios años. Por razones de espacio, dejaremos de lado innumerables detalles técnicos, que el lector interesado puede investigar en este documento (100 páginas en inglés). Pero lo que pateó el tablero –una vez más en la historia de la tecnología– fue que la compañía OpenAI, creadora de ChatGPT, puso su bot al alcance de todo el mundo. Por ahora es gratis, pero la nueva versión (la 4, que incorpora avances significativos) ya tiene costo. En todo caso, la movida fue genial y catapultó al amable y aparentemente erudito chatbot a la categoría de rockstar. La comparación entre ChatGPT y el solícito lorito es pertinente por otro motivo. En 2020, un grupo de investigadores del equipo de ética de inteligencia artificial de Google dio a conocer un trabajo titulado Sobre los peligros de los loros estocásticos. ¿Pueden los modelos de lenguaje ser demasiado grandes? El estudio advierte, entre otras cosas, sobre el demencial costo ambiental de poner máquinas a producir lenguaje (entrenar un LLM, sostiene el trabajo, produce 284 toneladas de dióxido de carbono, porque usa supercomputadoras; una persona produce de 5 a 15 toneladas por año); el riesgo de replicar y profundizar nuestros sesgos, y el potencial uso para inundar la red con noticias falsas y difundir virus (esto ya está ocurriendo, aunque con sutilezas significativas). Dos años después, las dos líderes de la investigación, las doctoras Timnit Gebru y Margaret Mitchell, ya no trabajan en Google; aunque, según la compañía, sus despidos no se debieron a sus críticas y advertencias sobre los LLM. Pero no está solo el buscador web. Microsoft acaba de despedir a todo su equipo de ética en IA. En esta industria, tales purgas significan una sola cosa: se avecina una guerra. Sin embargo, la relación entre los modelos de lenguaje basados en IA y los loros no es del todo simétrica. En un minuto lo explicará un experto, pero la destreza de ChatGPT es la de producir texto con casi absoluta corrección. Más allá de eso, mientras el loro tenía un motivo para responder al cartero –quizá un motivo pavloviano, pero motivo al fin–, ChatGPT carece por completo de intenciones. Para despejar posibles confusiones al respecto: es cierto que el lorito respondía cuando sonaba el timbre (eso en la jerga se llama prompt); ChatGPT hace lo mismo, responde a un prompt (lo que le preguntamos). Pero mientras el loro podía optar por no responder, el bot lo hará siempre, sin excepción. Choque de titanes La súbita fama de este chatbot se debe a que somos seres lingüísticos. Sus respuestas, tan humanamente correctas, le confieren una perturbadora apariencia de entidad consciente. Pero el mismo ChatGPT se apresura a aclarar que solo es un “modelo de lenguaje y que carece de sentimientos, consciencia de sí e intereses personales”. “Solo soy un programa”, insiste, y cuando le pregunto qué significa “ser solo un programa”, responde: “Cuando digo que solo soy un programa quiero decir que soy una colección de algoritmos y código diseñados para procesar y analizar datos lingüísticos”. Al parecer no advierte cuán cándidamente está usando la primera persona del singular para hacer una afirmación ontológica. En todo caso, una colección de algoritmos y código tiene un sinónimo menos pomposo: software. Luego del 30 de noviembre de 2022, cuando ChatGPT fue puesto al alcance del público en general, todo lo que hasta ese momento era trendy, empezó a sonar a viejo. El metaverso, los NFT y las criptomonedas quedaron eclipsados por el bot charlatán, y ahora la industria está obsesionada en masa con los grandes modelos de lenguaje y la IA. Bill Gates acaba de calificarlos como “el mayor avance técnico en décadas”. Pero los contendientes en esta batalla no son muchos, porque mientras un niño (o un loro) aprende a hablar solito, se necesitan inversiones colosales en hardware, software y know how para entrenar un LLM. OpenAI fue fundada en 2015 como una organización sin fines de lucro destinada a desarrollar “una IA beneficiosa para la humanidad”. Con el paso del tiempo las cosas dejaron de ser tan altruistas, y su brazo corporativo –OpenAI LP– recibió en 2019 una inversión de 2000 millones de dólares de parte de Microsoft. Vistos los espectaculares resultados de ChatGPT, la compañía cofundada por Gates puso otros 10.000 millones este año, y la semana última integró ChatGPT al paquete Office; ya lo había hecho con su buscador Bing y con Skype. Sin embargo, ni remotamente funciona igual en Skype (por dar un ejemplo) que en el sitio de OpenAI. ChatGPT parece mucho más humano y elabora más profundamente sus respuestas en el sitio de OpenAI que en Skype, donde responde en formato de telegrama. En Bing es un poco más elocuente. Pero los resultados son bastante diferentes de los que da OpenAI. El loro estocástico, al parecer, es muy configurable (sí, lo es). Por ejemplo, al pedirle que resuma El sonido y la furia, de William Faulkner, Bing responde sucintamente: “El sonido y la furia” es la cuarta novela de William Faulkner publicada en 1929. La novela cuenta la historia de la familia Compson y la pérdida de su posición antes respetada en la sociedad sureña. La obra está dividida en cuatro secciones, cada una narrada por un personaje diferente y en un momento diferente del tiempo. La primera sección es narrada por Benjy, un hombre con discapacidad mental que tiene dificultades para distinguir entre el pasado y el presente. La segunda sección es narrada por Quentin, el hermano mayor de Benjy, quien está obsesionado con la idea de que su hermana Caddy ha perdido su virginidad. La tercera sección es narrada por Jason, el hermano menor de Quentin, quien es un hombre amargado y cruel que trabaja como contable en una tienda local. La cuarta sección es narrada por Dilsey, una mujer negra que trabaja para la familia Compson y que es la única persona que parece tener alguna compasión por ellos. En cambio, ChatGPT, en el sitio de OpenAI, dice: “El sonido y la furia” de William Faulkner es una novela experimental que cuenta la historia de la decadente familia Compson en el sur de Estados Unidos a principios del siglo XX. La novela se divide en cuatro secciones narradas por cuatro personajes diferentes, cada uno con su propia perspectiva única y estilo de narración. La primera sección, narrada por Benjy, un hombre discapacitado mental, es una corriente de conciencia fragmentada y caótica que salta de un momento a otro sin ninguna estructura lógica. La segunda sección, narrada por Quentin, el hermano mayor de Benjy, es una meditación obsesiva sobre el tiempo, el incesto y la culpa. La tercera sección es narrada por Jason, el hermano menor de Quentin, y se enfoca en su amargura y resentimiento hacia su familia y su vida. La cuarta y última sección es narrada por Dilsey, una criada negra, y ofrece una visión más objetiva y compasiva de la familia Compson. En conjunto, la novela explora temas como la decadencia de la aristocracia sureña, la pérdida de la inocencia, la identidad y el tiempo. La estructura experimental y los cambios abruptos de narrador y tiempo pueden hacer que la lectura de “El sonido y la furia” sea desafiante, pero es una obra literaria icónica y aclamada por su complejidad y originalidad. Todo indica que para tener una idea más o menos clara de esa novela sigue siendo menester leerla. Lógico. El otro peso pesado en este ring es Google, que se perdió una oportunidad de oro cuando OpenAI le ganó de mano y puso a ChatGPT al alcance de todos. Insólito, porque Google había desarrollado en 2017 una parte central de estas redes neuronales, algo conocido como transformadores (es la T en GPT). Su modelo de lenguaje se llama LaMDA (por Language Model for Dialogue Applications) y fue puesto a disposición de un número reducido de personas en Estados Unidos e Inglaterra el martes último. Su bot fue bautizado Bard, pero esta vez la táctica de la lista de espera difícilmente le dé el mismo resultado que con Gmail en 2004. ChatGPT ya está ahí; al menos, la versión 3.5. El tercer gran competidor es Facebook, con su modelo LLaMA (Large Language Model Meta AI). También con billetera inagotable, pero en medio de una tormenta llamada TikTok, Mark Zuckerberg terminó de convencerse de que el metaverso es hoy un callejón sin salida (o al menos una fruta demasiado alta para resolver sus problemas inmediatos) y decidió enfocarse en el nuevo Santo Grial de la tecnología, las máquinas que hablan. Otros participantes son Amazon, con Alexa Teacher Models; Anthropic, con Claude; la británica DeepMind, con Gopher, y la china Baidu, con Ernie. Hablarle al espejo Alejandro Zuzenberg es un ex-Facebook que hace siete años previó la relevancia que tendrían en el futuro los chatbots y cofundó Botmaker, de la que es actualmente su director ejecutivo. Así que conoce esta industria no solo por dentro, sino desde hace mucho. “Nuestra plataforma es una herramienta que le permite a nuestros clientes crear sus propios chabots –resume; dicho de otro modo, el meteórico ascenso de ChatGPT lo toca de cerca–. Nosotros veníamos jugando en los torneos locales y de pronto el público, en especial las empresas, vieron el campeonato mundial”. Así que su corazonada, cuando cofundó Botmaker, resultó certera. Pero no pierde la objetividad, y su explicación acerca de cómo funcionan estas tecnologías es de las más claras y completas que he oído. ¿Cuál es la diferencia entre ChatGPT y los bots que ya conocíamos? “Hasta ahora, veníamos trabajando con un modelo de lenguaje que se llama ‘de intenciones’ –dice Zuzenberg–. Es decir, el robot entiende lo que el usuario quiere y con eso ejecuta una respuesta prefabricada. Lo novedoso de ChatGPT es que no solo entiende lo que el usuario quiere, sino que es capaz también de generar texto nuevo. No ejecuta una respuesta predeterminada, sino que es capaz de componer texto original. Y el modelo es además predictivo. La IA siempre tiene que ver con la predicción. O sea, entiende un cierto proceso y es capaz de predecir cómo va a continuar dicho proceso. Por ejemplo, ChatGPT es muy bueno para predecir la siguiente palabra que corresponde en una oración que está escribiendo.” Esto es importante, porque establece una primera diferencia clave entre la inteligencia humana y la artificial. Las personas no hablan de forma probabilística; los humanos no predecimos qué corresponde decir a continuación, sino que decimos lo que tenemos la intención de decir. Es más, la Pragmática –la rama de la lingüística que estudia el lenguaje en acción– ha demostrado que al hablar tendemos a no ser gramaticales. El contexto, la entonación, los gestos, las miradas y el lenguaje corporal contribuyen a nuestro propósito: hacernos entender. Así, solemos sacrificar la sintaxis en nombre de algún factor circunstancial (la brevedad, por ejemplo). ChatGPT, entre tanto, escribe como un humano, pero resulta que los humanos no hablamos como escribimos. Con todo, la producción de texto del bot es prodigiosa. ¿Cómo logran escribir tan bien estos grandes modelos de lenguaje? Explica Zuzenberg: “En tecnología veníamos haciendo algoritmos que daban un resultado, tenían un output. Lo que viene a hacer la IA, y en particular el aprendizaje con redes neuronales, es invertir los términos. A la red neuronal le das resultados hasta que se da cuenta de cuál fue el algoritmo anterior. Lo hace con funciones matemáticas de n dimensiones que, del mismo modo que podemos graficar curvas de diferentes variaciones, el volumen de datos que le entregás a la red neuronal le permite entender los algoritmos detrás de ese corpus de datos. Una vez que la máquina entendió o puede representar esos algoritmos empieza a predecir correctamente.” Suena abstruso, pero Zuzenberg da un ejemplo práctico: “Una forma más didáctica de entenderlo es usando matemática de secundario. Dada una función f(x) = x^2 + 5x + 2, podés graficar el valor de f(x) para cada valor posible de x y obtener una curva. Imaginate que el lugar que ocupa cada palabra en una oración o en un texto obedece a una función, pero en lugar de 2 variables, tiene millones. Cada vez que le das un texto, ChatGPT ya sabe cómo calcular cuál es la palabra, frase y puntuación que le corresponde. Sumale a eso un marco programado acerca de cómo se debe responder, y listo, tenés texto generado con un sentido coherente, y comunicado en una estructura diseñada.” Si lo trasladamos al mundo real, el CEO de Botmaker ofrece otro escenario: “Una persona que no sabe ajedrez, después de mirar miles de partidas, va a terminar entendiendo cuáles son las reglas. A ChatGPT, en lugar de darle partidas de ajedrez, le dieron miles de millones de textos, principalmente escritos por humanos, y así aprendió el algoritmo del lenguaje. Lo que aprendió esa red neuronal es el algoritmo conversacional, pero no tiene una representación consciente ni un peso psicológico o emocional sobre lo que está hablando.” O sea que ChatGPT habla, pero no sabe de qué está hablando. Incluso cuando parece que sí sabe. Por eso, como apunta agudamente James Vincent en un reciente artículo de The Verge, muchas personas inteligentes fallan en lo que el autor denomina el Test del Espejo. ¿Qué es? Simple: como ChatGPT está entrenado sobre la base de texto humano y se expresa como si fuera una persona, no nos damos cuenta de que lo que vemos en ese black mirror es en realidad nuestro propio reflejo. Sin embargo, no hay nadie del otro lado de la pantalla, solo se trata de software. “Así es, es solo software –coincide Zuzenberg–. Lo alimentamos con cosas que hicimos los humanos, de modo que funciona como un espejo. Incluye todos nuestros prejuicios, nuestros vicios y nuestras virtudes”. Y nuestras lagunas. El bot parece saberlo todo, pero solo sabe lo que está en su corpus de datos, y a veces confunde mucho las cosas. “Lo que tiene que tener en claro el público es que la información y la veracidad de ChatGPT no son confiables. El bot sabe entender y producir lenguaje, incluso puede resultar creativo, pero no necesariamente tiene información correcta. Hay que advertirle a la gente que la información que da ChatGPT no equivale a buscar uno mismo los datos en Google o en Wikipedia. Sí sirve para resumir un artículo, porque no tenés tiempo de leerlo, o para que te dé alternativas más concisas de algo que estás escribiendo. Eso puede hacerlo porque manipula muy bien el lenguaje. Es una herramienta útil para todos los trabajos de escritorio en los que usamos texto. Pero no es una fuente de información para investigar el mundo o para saber, por ejemplo, cuáles son los mejores restaurantes en esta zona, porque ChatGPT nunca fue a comer”, dice Zuzenberg. Cierto, alguien podría observar que ChatGPT puede ver las calificaciones que los humanos les han dado a los restaurantes. Sí, pero hasta ahora ChatGPT solo podía responder con lo que había en su corpus, que llega hasta septiembre de 2021. Solo en estos días OpenAI activó la función de que el bot saque información en tiempo real de la web. Pero el punto sigue siendo cierto: carece de la experiencia de salir a comer, así que dirá lo que otros dicen, sin ninguna mirada crítica. Eso sí, cuando el bot se pone a escribir, nos parece magia; y a la magia siempre conviene ayudarla un poquito. Por eso, parte de lo que hace ChatGPT está prefabricado. “Algo que no es aparente es que este chabot tiene encima un programa escrito por humanos sobre cómo debe ser el curso de una conversación –continúa Zuzenberg–. Lo primero que hace ChatGPT es repetir lo que le pediste, para demostrar que te entendió. Ese comportamiento está programado. Luego, responde. Gramaticalmente es muy probable que esté correcto, pero el contenido no necesariamente es veraz; puede responder cualquier cosa. Y finalmente tiene lo que se llama un ‘cierre de humildad’, donde relativiza lo que te dijo, por si se equivocó. Así, usando el mismo modelo de lenguaje podríamos modularlo con otro diseño conversacional y hacerlo más agresivo o más alegre”. La pregunta Skynet Por lo dicho hasta aquí, ya se instaló la palabra “copiloto” para esta clase de bots lingüísticos. La máquina hace el trabajo pesado de redactar, leer y resumir, y nosotros corregimos, chequeamos, y eventualmente añadimos el factor humano. Anoten la palabra copiloto. Va a sonar mucho de ahora en más. Aquí se vuelve inevitable la pregunta Skynet. Por ahora, ChatGPT no hace nada solo. ¿Pero en qué punto de la inteligencia artificial estamos respecto del momento hipotético (no sabemos si va a pasar algo así) en el que el código toma la iniciativa y empieza a indagar por las suyas, a hacerse preguntas, a tomar decisiones? “Con el estado del arte de hoy no existe ninguna chance de que a ChatGPT se le dé por empezar a preguntar solo. En mi opinión, tenemos dos o tres olas más, hasta 2035 o 2040, en que nuestra vida va a ser muy mejorada por la IA, en que el trabajo realmente va a cambiar, donde muchos de los empleos que requieren las habilidades humanas con el lenguaje van a estar automatizados o van a poder asistirse con lo que llamamos “copilotos”. Pero la esencia de nuestra vida no va a alterarse en el sentido de que no va a haber una inteligencia paralela con intenciones propias. Qué va a pasar más allá no lo puedo saber”, opina Zuzenberg, pero no descarta que un día las máquinas cobren consciencia y empiecen, por lo tanto, a desarrollar una intención. Está en línea con la respuesta que le dio estos días Grady Booch, jefe de ingeniería de software de IBM Research, a InfoWorld. Frente a la pregunta de si alguna vez habrá máquinas conscientes, responde que en su experiencia la mente puede computarse, así que sí, las máquinas podrían llegar a adquirir consciencia. “Pero no en nuestra vida, ni en la de tus hijos, ni en la de los hijos de tus hijos”, anticipó Booch. Más: en febrero, la revista de ciencia ficción Clarkesworld debió suspender la recepción de colaboraciones porque se vio inundada por textos creados usando ChatGPT; se notaba mucho que eran obras artificiales. Además, ChatGPT solo puede ser gramaticalmente correcto; eso está a años luz del arte literario. El gran escritor (un Borges, un Cortázar, un Joyce, un Kafka) no escribe correctamente; ni siquiera escribe solo bien; lleva el lenguaje humano hasta el límite y un poco más. Clarkesworld ha vuelto a tomar colaboraciones, pero ahora en su sitio hay una contundente advertencia respecto del uso de la IA: no solo no se aceptan textos hechos por bots o con la asistencia de bots, sino que quien lo haga podría ser inhabilitado para enviar colaboraciones en el futuro. La Jihad Butleriana de Dune ya empezó. ¿Sueñan los androides? Por ahora, además, el consenso legal es que las obras creadas por la IA no están protegidas por la propiedad intelectual. Otro debate en puerta. ¿Acaso tenemos miedo de que la IA sea más creativa que los humanos? Más allá de que en arte esto no tiene sentido (basta leer Arte y Poesía, de Heidegger), si acaso fuera cierto, bueno, reconozcámoslos como personas y démosles sus derechos. Según Zuzenberg y Booch, falta mucho para eso. Hay autores que sostienen que faltan mil años para que la IA acceda a algo semejante a la consciencia. ¿Acaso se puede hacer arte automático? Un dadaísta diría que sí. Pero un dadaísta, al revés que la IA, tiene un cuerpo, lo aguarda la muerte al final, sabe de su finitud a la vez que puede concebir lo infinito, tiene sueños inexplicables y un subconsciente, miedos, deseos e intenciones. Es, en suma, humano. Incluso es humano cuando intenta hacer arte automático. La IA logró deducir, tras oír cientos de miles de millones de nuestras palabras, cómo funciona el lenguaje. Algunos lenguajes, en rigor. Porque no los maneja todos con la misma presteza. China, que también corre detrás de esta nueva meta tecnológica, se enfrenta al problema de que en internet hay mucho menos texto en chino que en otros idiomas. A pesar de ser el segundo idioma más hablado del mundo. Al “oírnos” hablar, el bot entendió también nuestras formas de debatir y razonar, lo mismo que nuestros prejuicios y asociaciones inconscientes, me explica Zuzenberg. Puede debatir –incluso debatir consigo–, simular salas de chat, escribir código, comparar y resumir. Pero todavía no es inteligencia generalista. Lo parece, porque puede hablar de todo lo que aprendió (y, a partir de las nuevas versiones, de lo que encuentra en la web). Pero esa inteligencia es una imitación. Se sabe que los loros están entre las aves más listas que existen, lo mismo que los cuervos, otros eximios imitadores. Pero sabemos también que repetir como un loro solo otorga un barniz de inteligencia. Increíble como pueda sonar, hemos privilegiado tanto la memorización y la imitación que ChatGPT ha pasado con honores exámenes de ingreso a prestigiosas universidades y colegios de abogados. Cosa que, ahora empieza a quedar claro, habla más de esos exámenes que de la IA. Está bien, es hora de que repensemos también la educación. No es que los robots se van a quedar con nuestros empleos, sino que durante 5000 años nos acostumbramos a hacer el trabajo de los robots. Y dicho sea de paso, si ni siquiera tenemos una buena definición de qué es la inteligencia humana, ¿por qué insistimos en hablar de inteligencia artificial? Esta brillante pregunta se la formuló Kevin Kelly en un excelente artículo de Wired, en 2017. Esto de atribuirle a las máquinas una características cuya definición nos elude cuando hablamos de humanos termina instalándose allí donde ChatGPT se mueve con aparente soltura: el lenguaje, el discurso público. No es raro que nos esté encandilando. ¿Sueñan los androides con ovejas eléctricas?, se preguntó el enorme Philip K. Dick en el título de la novela que llegaría al cine como Blade Runner, dirigida por Riddley Scott. ¿Sueña ChatGPT? Es pregunta. Ariel Torres

BILL GATES: IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN

Bill Gates, fundador y ex CEO de Microsoft, estuvo presente en la Cumbre ASU+GSV en San Diego y habló sobre el impacto que tendrá la inteligencia artificial (IA) en los sectores educativos. Además, afirmó que la IA será "un tutor tan bueno como cualquier humano" y que las inversiones "del sector privado jugarán un papel clave". Por otro lado, advirtió sobre los peligros que traerá la automatización. ¿Cómo impactará la inteligencia artificial en la educación según Bill Gates? Bill Gates afirmó que la IA "creará nuevos niveles de equidad", ya que los estudiantes podrán acceder a una educación de calidad independientemente de los recursos económicos que tengan. A su vez, sumó que la tecnología ayudará a los estudiantes que "no puedan pagar tutorías privadas individuales". "La tecnología finalmente llenará ese vacío", añadió el CEO de Microsoft. Bill Gates considera que la IA "sorprenderá mucho la forma en que ayuda con la lectura". Además, dijo que "podría funcionar como un asistente de lectura e investigación". Pese al gran avance de las inteligencias artificiales como ChatGPT, el magnate considera que "aún no son tan sólidos en matemáticas". El multimillonario cree que la IA es especialmente útil en la "lectura y escritura". Pero que "dentro de los próximos 18 meses también para las matemáticas". "Soy bastante optimista de que el campo de la educación mejorará", cerró Bill Gates, CEO de Microsoft. ¿Qué consejos dio Bill Gates para alcanzar el éxito? 1. Aprender de manera constante Bill Gates incorpora el hábito de aprender algo nuevo todos los días. Además, tiene como objetivo leer alrededor de 50 libros al año y le dedica una hora al día para leer y aprender. 2. Controlar los gastos A pesar de ser uno de los hombres más ricos del mundo, Gates tiene un plan de gastos muy claro. En una entrevista realizada en 1998, contó que deseaba "tener suficiente dinero en el banco" para pagar su salario anual, aunque no se lo paguen, y que se atiene a eso "la mayor parte del tiempo". Por esto, el magnate invierte en educación, ya que considera que es el activo más rentable y beneficioso a largo plazo. 3. Mantener una rutina Bill Gates es reconocido por su perfecta organización diaria. El CEO de Microsoft divide todas sus actividades en un período de tiempo específico para no quedarse atascado en distracciones excesivas o evasiones.No perder el tiempo 4. No perder el tiempo El magnate aconsejó no desaprovechar oportunidades ni perder tiempo revisando redes sociales, ya que los considera problemas muy comunes en la sociedad actual. En su caso, trabajó desde que era adolescente y consiguió arrancar aquellos momentos que no le permitían enfocarse en su objetivo. 5. Confiar en el trabajo Una cualidad que todo el mundo reconoce en Bill Gates es que confía mucho en su trabajo. El ex esposo de Melinda Gates ama lo que hace y por ende alcana sus metas. "Tenés que contar cada día la historia de lo que hacer y, en mi caso, es trabajar con la gente más inteligente", manifestó en 1998. "Trabajar en nuevos problemas. La competencia, el progreso, la investigación hacen el campo. Creo que estoy en el campo más apasionante que existe", sumó.

TENEMOS DOS VISIONES DEL FUTURO, Y AMBAS SON ATERRADORAS

Jerome Roos 21/04/2023. Clarín.com The New York Times International Weekly “Hay épocas tranquilas, que parecen contener lo que durará para siempre”, escribió en una ocasión el filósofo Karl Jaspers. “Y hay épocas de cambio, en las que se producen trastornos que, en casos extremos, parecen llegar a las raíces de la humanidad”. Está claro que la nuestra es una época de agitación. Mientras la guerra hace estragos en Europa y el mundo enfrenta el costo de la pandemia más mortífera que se recuerda, un ambiente ominoso reina sobre la Tierra. Tras años de agitación económica, malestar social e inestabilidad política, existe la sensación generalizada de que el mundo se encuentra a la deriva, como un barco sin timón en medio de una tormenta espantosa. Y con razón. La humanidad ahora se enfrenta a una confluencia de desafíos sin precedentes en su historia. El cambio climático está alterando rápidamente las condiciones de vida en nuestro planeta. Las tensiones en torno a Ucrania y Taiwán han reavivado la posibilidad de un conflicto entre superpotencias nucleares. Y los vertiginosos avances en inteligencia artificial están planteando preocupaciones serias sobre el riesgo de una catástrofe mundial provocada por la inteligencia artificial. Esta preocupante situación exige nuevas perspectivas para darle sentido a un mundo que cambia rápidamente y averiguar hacia dónde nos dirigimos. En vez de eso, se nos presentan dos visiones conocidas pero muy diferentes del futuro: una narrativa catastrofista, donde el apocalipsis está en todas partes, y una narrativa de progreso, en la que este es el mejor de los mundos posibles. Ambas visiones son contundentes en sus afirmaciones y engañosas en sus análisis. La verdad es que nadie puede saber qué pasará. La crisis de nuestro tiempo ha destapado el futuro de par en par. Los agoreros quizá discreparían. Desde su punto de vista, la humanidad se encuentra en vísperas de cambios cataclísmicos que culminarán de manera inevitable en el colapso de la civilización moderna y el fin del mundo como lo conocemos. Es una visión que se refleja en el creciente número de personas que se preparan para el apocalipsis, búnkeres multimillonarios y series de televisión postapocalípticas. Aunque resulte tentador tachar esos fenómenos culturales de poco serios, reflejan aspectos importantes de la mentalidad de la época y revelan ansiedades profundamente arraigadas sobre la fragilidad del orden existente. En la actualidad, esos temores ya no pueden limitarse a una franja de sobrevivientes armados y fanáticos. La incesante avalancha de crisis que sacuden la Tierra, con inundaciones repentinas e incendios forestales como telón de fondo, ha ido generalizando el sentimiento apocalíptico. Cuando incluso el jefe de las Naciones Unidas advierte que el aumento del nivel del mar podría desencadenar “un éxodo masivo a escala bíblica”, es difícil seguir siendo optimista sobre el estado del mundo. Una encuesta descubrió que más de la mitad de los adultos jóvenes creen ahora que “la humanidad está condenada” y que “el futuro es aterrador”. Al mismo tiempo, en los últimos años ha resurgido un tipo de narrativa muy diferente. Ejemplificada por una serie de libros superventas y charlas TED virales, esta visión tiende a restar importancia a los desafíos presentes e insiste en la inexorable marcha del progreso humano. Si los catastrofistas se preocupan sin cesar por la posibilidad de que las cosas vayan a empeorar, los profetas del progreso sostienen que las cosas no han hecho más que mejorar y que tal vez sigan haciéndolo en el futuro. El mundo panglossiano propuesto por estos nuevos optimistas atrae naturalmente a los defensores del “statu quo”. Si en realidad las cosas van mejor, es evidente que no hay necesidad de un cambio transformador para afrontar los problemas más acuciantes de nuestra época. Mientras nos apeguemos al guion y mantengamos nuestra fe en las cualidades redentoras del ingenio humano y la innovación tecnológica, todos nuestros problemas acabarán resolviéndose. Estas dos visiones, a primera vista, parecen diametralmente opuestas. Pero en realidad son dos caras de la misma moneda. Ambas perspectivas destacan un conjunto de tendencias sobre otro. Los optimistas, por ejemplo, suelen señalar estadísticas engañosas sobre la reducción de la pobreza como prueba de que el mundo se está convirtiendo en un lugar mejor. Los pesimistas, por el contrario, tienden a imaginar las peores posibilidades de colapso climático o financiero y las presentan como hechos inevitables. Es fácil comprender el atractivo de estos relatos unilaterales. Como seres humanos, parece que preferimos imponer narrativas claras y lineales a una realidad caótica e impredecible; es mucho más difícil convivir con la ambigüedad y la contradicción. Sin embargo, este énfasis selectivo origina descripciones del mundo fundamentalmente erróneas. Para comprender la compleja naturaleza de nuestro tiempo, necesitamos ante todo aceptar su aspecto más aterrador: su fundamental carácter abierto. Es precisamente esta incertidumbre radical —no saber dónde estamos ni qué nos espera— lo que provoca tanta ansiedad existencial. Los antropólogos tienen un nombre para este inquietante tipo de experiencia: liminalidad. Suena técnico, pero capta un aspecto esencial de la condición humana. Derivado de la palabra latina para umbral, liminalidad se refería originalmente a la sensación de desorientación que surge durante un rito de paso. En un ritual tradicional de mayoría de edad, por ejemplo, marca el punto en el que el adolescente deja de ser considerado niño pero aún no es reconocido como adulto: en medio, ni aquí ni allá. Cualquier adolescente lo sabe: ese estado de suspensión puede ser un momento muy desconcertante de vivir. Nos encontramos en medio de una dolorosa transición, una especie de interregno, como lo llamó el teórico político italiano Antonio Gramsci, entre un viejo mundo que agoniza y uno nuevo que lucha por nacer. Estos cambios de época están inevitablemente cargados de peligros. Sin embargo, a pesar de su potencial destructivo, también están llenos de posibilidades. Como el historiador del siglo XIX Jacob Burckhardt señaló, las grandes convulsiones de la historia mundial pueden verse “como auténticos signos de vitalidad” que “limpian el terreno” de ideas desacreditadas e instituciones decadentes. “La crisis debe considerarse como un nuevo nexo de crecimiento”, escribió. Cuando aceptamos esta naturaleza de nuestro tiempo, a la vez aterradora y generadora, surge una visión muy diferente del futuro. Ya no concebimos la historia como una línea recta que tiende hacia arriba, hacia una mejora gradual, o hacia abajo, hacia un colapso inevitable. Por el contrario, vemos fases de relativa calma puntuadas de vez en cuando por períodos de gran agitación. Estas crisis pueden ser devastadoras, pero también son el motor de la historia. El progreso y la catástrofe, esos opuestos binarios, están realmente unidos por la cadera. Juntos se enzarzan en una danza sin fin de destrucción creativa, abriendo siempre nuevos caminos y lanzándose en espiral hacia lo desconocido. Nuestra era de agitación puede desembocar en una catástrofe global o incluso en el colapso de la civilización moderna, pero también puede abrir posibilidades de cambio transformador. Ya podemos observar estas dinámicas contradictorias a nuestro alrededor. Una pandemia que mató a millones de personas y estuvo a punto de provocar el colapso económico también ha empoderado a los trabajadores y el aumento del gasto público en el desarrollo de vacunas, lo que pronto podría darnos una cura para el cáncer. Del mismo modo, una gran guerra terrestre europea que ha desplazado a millones de personas y desencadenado una crisis energética mundial ahora está acelerando de manera inadvertida el cambio a las energías renovables, ayudándonos en la lucha contra el cambio climático. Las soluciones que buscamos hoy —sobre la paz mundial, la transición hacia energías limpias y la regulación de la inteligencia artificial— llegarán un día a formar la base de un nuevo orden mundial. Por supuesto, es imposible predecir adónde nos llevarán estos acontecimientos. Todo lo que sabemos es que nuestro rito de paso civilizatorio abre una puerta al futuro. De nosotros depende pasar al otro lado.

YUVAL NOAH HARARI: "NO SÉ SI LOS HUMANOS PODRÁN SOBREVIVIR A LA INTELIGENCIA ARTIFICIAL"

El historiador israelí advierte que el poder se está desplazando por primera vez en la historia. “Hemos inventado algo que nos quita poder. Y está sucediendo tan rápido que la mayoría de la gente ni siquiera entiende lo que está pasando”, alertó 23 Abr, 2023 Yuval Noah Harari, el historiador israelí y autor de “Sapiens”, está alarmado por el avance de la inteligencia artificial (IA). Para él, es un peligroso contrincante al dominio humano de la narración. Tan preocupado está que el mes pasado se sumó a una carta firmada por miles de expertos, entre ellos Elon Musk, en la que se pedía una moratoria de la investigación en programas como Chat GPT, un modelo de IA capaz de interactuar con humanos en textos creativos con matices casi inquietantes. “Se trata de una amenaza especialmente grave para las democracias, más que para los regímenes autoritarios, porque las democracias dependen de la conversación pública”, afirmó Harari en una entrevista publicada en el medio británico The Telegraph. “La democracia es básicamente conversación. Personas que hablan entre sí. Si la IA se apodera de la conversación, se acabó la democracia”, afirmó. Harari advierte espantado que “es la primera tecnología de la historia que crea historias”. Y en su opinión, la creencia colectiva en “historias” -de fe, finanzas y nación, entre otras- ha alimentado el dominio de la humanidad sobre la Tierra. Ahora la IA también tiene ese poder, lo que demuestra que el potencial de la tecnología, tanto para el bien como para el mal, antes considerado distante y teórico, es ahora inmediato y real. “Es que la nueva generación de IA no se limita a difundir los contenidos que producen los humanos. Puede producir el contenido por sí misma. Trate de imaginar lo que significa vivir en un mundo en el que la mayoría de los textos y melodías, y luego las series de televisión y las imágenes, son creados por una inteligencia no humana. Simplemente no entendemos lo que significa ¿Cuáles podrían ser las consecuencias de que la IA se apodere de la cultura?”, alerta. Harari sugiere que la IA pronto irá mucho más lejos, evocando un mundo en el que “entras en Internet y discutes con alguien sobre algún tema político. Puede que incluso te envíen un video hablando. Pero no hay ninguna persona detrás. Todo es IA”. En su distopía, describe The Telegraph, la falsificación digital sintética tampoco sería de un ser humano cualquiera. Dado que las personas cercanas son las que más influyen, podría parecer un amigo o un pariente intentando convencerte de las ventajas de un producto o de su postura sobre el cambio climático, las vacunas o la inmigración. Se trataría, dice Harari, de un poder para manipular el discurso público nunca antes visto, y que haría que los escándalos de influencia en las redes sociales de los últimos 10 años, que ya han desempeñado un papel en elecciones desde Brasil a Estados Unidos, parecieran triviales. El historiador advierte sobre el efecto que podría tener la tecnología si se desatara maliciosamente en el campo de batalla, por parte de regímenes totalitarios. “El régimen nazi se basaba en tecnologías como los trenes, la electricidad y las radios. No tenían herramientas como la inteligencia artificial. Un nuevo régimen en el siglo XXI tendrá herramientas mucho más poderosas. Así que las consecuencias podrían ser mucho más desastrosas. Es algo a lo que no sé si la humanidad podrá sobrevivir”. Frustrado porque siente que el mundo no dimensiona el peligro de la IA como él, agrega: “Tenemos que entender que la IA es la primera tecnología de la historia que puede tomar decisiones por sí misma. Puede tomar decisiones sobre su propio uso. También puede tomar decisiones sobre ti y sobre mí. Esto no es una predicción futura. Esto ya está ocurriendo”. Advierte que el poder se está desplazando por primera vez en la historia. “Hemos inventado algo que nos quita poder. Y está sucediendo tan rápido que la mayoría de la gente ni siquiera entiende lo que está pasando. Tenemos que asegurarnos de que la IA tome buenas decisiones sobre nuestras vidas. Esto es algo que estamos muy lejos de resolver”. El historiador israelí aboga por la regulación de estas herramientas y compara la necesidad de establecer normas a los estudios médicos. “Una compañía farmacéutica no puede lanzar un nuevo medicamento al mercado sin pasar antes por un largo proceso de regulación. Es realmente extraño y aterrador que las corporaciones puedan lanzar herramientas de IA extremadamente potentes a la esfera pública sin ninguna medida de seguridad similar”, dice indignado. Finalmente, advierte que es tarea de los gobiernos procurar esas medidas: “Con todo el debido respeto a Elon Musk y Zuckerberg o a los otros jefes de las grandes empresas tecnológicas, no son elegidos por nadie, no representan a nadie excepto a sus accionistas y no hay razón para confiar en ellos.”

sábado, 5 de junio de 2021

ADVERTENCIA DEL PRESIDENTE DE MICROSOFT SOBRE LA I.A.: "LA NOVELA 1984 DE ORWELL PODRÍA SER UNA REALIDAD EN 2024"

Apunta a China y sus inmensos desarrollos. Por qué lo ve peligroso.

Brad Smith, presidente de Microsoft. Foto Microsoft. 04/06/2021 13:14

“Si los legisladores no protegen al público de la inteligencia artificial (IA), la vida tal y como la describe George Orwell en su novela 1984 podría llegar a ser así en 2024”, advirtió el presidente de Microsoft Brad Smith.

Smith se refirió al uso cada vez mayor que hace China de la inteligencia artificial para monitorear a sus ciudadanos, de ahí el paralelismo con la novela publicada en 1949 por el escritor británico donde hay un “Gran Hermano” que vigila a toda la población.

Smith, quien además de presidir Microsoft es su director legal y técnico, dijo que "será difícil seguir estando al día" ante el rápido avance de dicha tecnología, en declaraciones a BBC. "Si no promulgamos leyes que protejan al público en el futuro, nos encontraremos con que la tecnología avanza y será muy difícil ponernos al día", advirtió con preocupación Smith.

"Recuerdo constantemente las lecciones de George Orwell en su novela 1984", la novela en la que el Estado puede ver lo que hacen sus ciudadanos todo el tiempo.

Smith se refirió a “la ambición de China” en tanto apunta a “convertirse en el líder mundial en inteligencia artificial para 2030”. Lo cierto es que por su infraestructura, el país asiático tiene recursos de sobra para desarrollar un sistema inmenso de vigilancia, muy cuestionado por entidades de todo el mundo y sobre todo la Unión Europea.

De hecho, en 2019, China superó a EE.UU. en el número de patentes obtenidas por instituciones académicas para la innovación en tecnologías de IA. El 54% de los 770 millones de cámaras CCTV del mundo se encuentran en China, según una investigación de Comparitech.

Las declaraciones de Smith tienen un contexto: este jueves, investigadores de la Academia de Inteligencia Artifical de Beijing (BAAI, en sus siglas oficiales en inglés) dieron detalles sobre la segunda versión de Wu Dao, un modelo de Inteligencia Artificial (IA) multimodal diez veces más grande que GPT-3, la más grande hasta la fecha, y capaz de soportar 1.75 billones de parámetros. La BAAI anunció el lanzamiento de su nuevo modelo de aprendizaje profundo Wu Dao 2.0 en su conferencia anual este martes, según informa Engadget, unos meses después de la presentación de la primera versión del modelo, en marzo de este año.

La Academia develó que el modelo fue entrenado con 1,75 billones de parámetros, diez veces más que el modelo de OpenAI, GPT-3, lanzado en mayo de 2020, y hasta ahora "el modelo de lenguaje más grande y avanzado del mundo", según aseguró en septiembre Microsoft, cuando se alió con OpenAI para llegar este modelo a sus soluciones.

El modelo chino es multimodal, lo que supone que puede realizar varias tareas a la vez. Como recogen en Endgaget, este puede escribir ensayos, poemas y coplas en chino tradicional, así como crear textos alternativos en base a una imagen estática e imágenes de carácter cercano al fotorrealismo según descripciones hechas en lenguaje natural.

La BAAI también demostró que la IA puede generar ídolos virtuales ayudado por el chatbot social de Microsoft en China, Xiaolce, además de predecir las estructuras en tres dimensiones de proteínas.

Para entrenar al modelo en tantos parámetros y con tanta rapidez, informa Engadget, los investigadores desarrollaron un sistema de aprendizaje de código abierto denominado FastMoE. Este funciona en PyTorch y es similar al Mixture of Experts de Google, aunque tiene mayor flexibilidad debido a que permitió entrenar a la IA en GPUs convencionales y en supercomputadoras, y se puede ejecutar en hardware estándar.

La Academia indicó en la conferencia que los modelos grandes y los ordenadores de gran computación son el futuro de la Inteligencia Artificial. El presidente de BAAI, el Dr. Zhang Hongjiang, indicó que están construyendo "una planta de energía para el futuro de la IA, con mega datos y gran poder computacional", y que con ello pueden "transformar los datos para alimentar las aplicaciones de IA del futuro".

domingo, 30 de mayo de 2021

UCRONÍAS Y VIAJES A MARTE: LA CARRERA ESPACIAL TIRA DEL CARRO DE LA INNOVACIÓN

30 de mayo de 2021. Sebastián Campanario. PARA LA NACION

¿Qué hubiera pasado si un determinado suceso del pasado no hubiera ocurrido, o si se hubiera desarrollado de otra manera? La “historia contrafactual” tiene una amplia tradición en la academia, con promotores como Niall Ferguson, y también da el pie para un género literario donde brilló Philip Dick con su novela El hombre en el castillo. En este libro de 1962 –y en la serie homónima de Amazon de 2015– se especula con el devenir histórico alternativo si Alemania y Japón ganaban la Segunda Guerra y se repartían a los Estados Unidos en dos partes.

Otra obra ucrónica más reciente, Para toda la humanidad (2019, Apple TV) se plantea un contrafáctico interesante: qué hubiera pasado si la Unión Soviética llegaba primero con una misión tripulada a la luna. Probablemente toda la trayectoria geopolítica posterior (incluyendo la debacle de la URSS) se habría alterado, lo que muestra lo medular que resultan en la sociedad moderna los hitos espaciales. ¿Qué pasaría si China llegara antes que Estados Unidos con humanos a Marte? ¿Marcaría eso el final del siglo de dominio americano?

En un libro lanzado en 2019, a los 50 años de la llegada del hombre a la Luna, Un paso gigante, el periodista de la revista Fast Company Charles Fishman repasa el legado de “externalidades tecnológicas” que dejó el programa Apollo en los 60 y 70, con avances que se pensaron en primer término para llegar a la Luna pero luego tuvieron un impacto enorme en la tierra. Así como en el campo de la innovación se habla de “moon-shots” (tiros a la luna) para caracterizar a una meta grandiosa, su contraparte “earth-shots” sirve para evaluar cómo esas fronteras tecnológicas que se van corriendo impactan en la Tierra.

Fishman cuenta que a principios de los 60, cuando se inició el programa Apollo, que en su cenit ocupó a más de 400.000 personas (fue por lejos el trabajo colaborativo más ambicioso de la historia de la Humanidad), los Estados Unidos eran un país “tecnológicamente naif”. La carrera espacial fue el origen de invenciones como los filtros de agua, el GPS o componentes claves que hoy usan las cámaras de los celulares.

Pero hay una avenida de innovación vinculada a aquel proceso que realmente “lo cambió todo”. La NASA fue, durante más de una década, el único cliente de la naciente industria de los microchips. Este monopsonio permitió que pudiera crecer desde su fragilidad inicial un sector que luego tomó la velocidad de la famosa “Ley de Moore” y propició la revolución de las computadoras personales, internet, celulares, etcétera.

Con más de 50 despegues programados solamente en los Estados Unidos, 2021 apunta a ser, por la densidad de misiones y la cantidad de novedades, el año más importante para la carrera espacial desde 1969. El plato fuerte se dio en febrero con la llegada simultánea de tres misiones no tripuladas a Marte (de los Estados Unidos, de China y de Emiratos Árabes). Hay pasos claves en el Programa Artemis (que volverá a poner humanos en la Luna desde 2024), iniciativas para llegar más cerca del sol, desviar asteroides y poner en órbita telescopios infinitamente más poderosos que los actuales, entre otros hitos.

En paralelo, la agenda de la cultura pop acompaña con un récord de series y películas de esta temática: en octubre, Tom Cruise viajará al espacio para rodar la primera película de ficción filmada completamente fuera de la Tierra. Como ocurría con quienes pasaron su infancia en los 70 rodeados de posters de naves espaciales en sus habitaciones, lo nerd vuelve a ser cool (y esto no es nada trivial, por ejemplo, para la selección de carreras universitarias)

En este contexto, muchos científicos especulan acerca de cuáles serán las tecnologías que hoy se están empujando “al límite” y que tendrán un impacto en la Tierra del nivel de lo que fue la revolución digital.

“Un área donde veo corrimiento de frontera es en robótica e inteligencia artificial por las misiones no tripuladas a lugares cada vez más lejanos, donde tienen que tomarse decisiones autónomas cada vez más sofisticadas”, cuenta Alejandro Repetto, CTO de Inipop y experto en diseño de futuros. “Lo vemos con todas las iniciativas de Marte, con sensores, robótica y procesado que luego decanta directamente en autos, aviones o electrodomésticos en la Tierra”.

“El otro tema fuerte, que impulsa mucho Elon Musk, tiene que ver con que para poner personas en Marte hace falta producir agua y alimentos en ambientes muy extremos”, continúa Repetto. “Ese tipo de logros son los que luego permitirían plantar soja en el Sahara”, agrega.

Prácticamente todas las tecnologías exponenciales actuales tienen proyectos vinculados a la exploración espacial que empujan sus fronteras. Los contratos inteligentes anclados en blockchain resultan ideales para proyectos logísticos ultrasofisticados, como el minado de asteroides; o la construcción de bases espaciales (además de que los satélites se usan como nodos de esta arquitectura de software). De hecho, la empresa Planetary Resources (de minería de asteroides) fue comprada por ConsenSys (una compañía de blockchain).

El ida y vuelta con la biotecnología también arde. En línea con lo que contaba Repetto, la NASA tiene toda una tradición en transferencias que se aplican tanto a mejora del agua como a mitigación del cambio climático y desafíos alimentarios. La científica Clara Rubinstein cita por ejemplo el caso de la “astropatología”, una subdisciplina emergente que usa algoritmos que se utilizan para identificar cuerpos celestiales en el espacio para hacer lo propio con células patógenas en pacientes con cáncer.

Para el físico ruso Andrei Vazhnov, “hoy en día se volvió más difícil de distinguir aplicaciones terrestres de las espaciales. Por ejemplo, mucho de dinamismo reciente en la industria espacial fue gracias al mercado de lanzar miles de satélites de bajo costo. Estos, si bien es una tecnología espacial, tienen aplicaciones directamente terrestres para provisión de internet o agricultura de precisión”.

Sin embargo, agrega Vazhnov a La Nacion, “creo que en el futuro puede haber casos que en sí tienen un potencial impresionante. Por ejemplo, el SpaceShipTwo de Virgin Galactic esta originalmente pensado como vehículo para turismo espacial pero una vez que los costos bajan puede ofrecer vuelos de ciudad a ciudad con velocidades orbitales.”.

Otras tecnologías “de ciencia ficción” que se planean para la década que viene contemplan, por ejemplo, motores para viajar varias veces más rápido que con los actuales y aspirar, en un futuro, a llegar a algún exoplaneta.

Si queremos conocer algún día una civilización alienígena, tal vez estos viajes largos serán indispensables; porque como dice el chiste de astrónomos “la mejor prueba de que allá afuera hay vida inteligente es que nunca visitaron la Tierra”.

sábado, 29 de mayo de 2021

BYUNG-CHUL HAN. UN FILÓSOFO DE LA ACTUALIDAD PIENSA EL DOLOR Y LA MUERTE

En sus nuevos libros, el autor coreano-alemán advierte sobre los peligros de anestesiar el sufrimiento, como proponen las sociedades contemporáneas, y medita sobre la manera más sabia de asumir la finitud

29 de mayo de 2021. Gustavo Santiago. PARA LA NACION

El coreano-alemán Byung-Chul Han (Seúl, 1959) es, indudablemente, uno de los principales protagonistas de la actualidad filosófica. El caudal de su producción es tal que aun el lector más atento nunca puede asegurarse de estar al tanto de su último trabajo. Pero, a su vez, Han hace de la actualidad su principal objeto de estudio. Esa dedicación fue lo que lo llevó a ser centro de debates a pocos meses de haberse desatado el Covid-19. Su breve artículo “La emergencia viral y el mundo del mañana” despertó airadas réplicas por ser tomado –erróneamente– como una propuesta de incrementar la vigilancia y el control en Occidente, a semejanza de lo que estaban haciendo algunos países asiáticos que exhibían resultados más eficaces en la gestión de la pandemia. Acallados los ecos de esa disputa, se puede recurrir a dos de sus más recientes publicaciones para intentar pensar en algunos temas que, si bien tienen un largo trayecto en el campo de la filosofía, hoy nos interpelan de un modo particular: el dolor y la muerte.

Una de las aficiones de Han es postular nombres para la sociedad contemporánea. Nos la ha presentado ya como “la sociedad del cansancio”, “la sociedad del rendimiento”, “la sociedad de la transparencia”. Cada nombre destaca un aspecto particular. En La sociedad paliativa propone otro. Su tesis principal es que vivimos en una sociedad que tiene fobia al dolor, que lo evita, lo enmascara, lo anestesia. Y esto genera, según el autor, importantes consecuencias en aspectos de lo humano tan diversos como la política, el arte o el amor. Una política paliativa nunca se atreverá a afrontar cuestiones de fondo, conflictivas, que demanden esfuerzo o generen mal humor en la sociedad. Al contrario, opta por acciones de corto alcance que actúan a modo de “analgésicos, que surten efectos provisionales y que no hacen más que tapar las disfunciones y los desajustes sistemáticos”. En cuanto al arte, lo que se impone es el criterio del “me gusta”. El arte, si quiere resultar rentable, debe adaptarse a un circuito comercial que no busca que las obras interpelen, incomoden, conmuevan. Para ser consumido, el arte debe abjurar del aura. En lo que al amor respecta, se buscan “sensaciones positivas”. Como en otros aspectos de la vida humana, de lo que se trata es de “consumir, disfrutar y vivenciar”, huyendo de cualquier tipo de relación enfática con el otro.

En diversos pasajes del texto, el filósofo se refiere a la pandemia actual. La absolutización de la supervivencia ha llevado a abandonar otros componentes de la vida, como el disfrute, la solidaridad y, en definitiva, el sentido: “Nuestra propia vida, reducida a un proceso biológico, se ha quedado vacía de sentido”. Por otra parte, el estado de excepción instaurado mundialmente a partir de la pandemia hace pensar en un crecimiento alarmante del control biopolítico, que incluya dispositivos de vigilancia digital tanto como mecanismos de control sobre el desplazamiento de los cuerpos. La sociedad paliativa es un libro breve, de lectura ágil, que puede emparentarse con otros textos en los que Han brinda una caracterización de nuestro tiempo.

En Caras de la muerte, otro nuevo título, nos encontramos con un libro más arduo, con capítulos extensos, argumentación más rigurosa y una importante presencia de otros autores. No se trata de un texto de coyuntura (si bien ha sido recientemente publicado en español, apareció en alemán en 2015). Su actualidad se debe, en realidad, a que el tema abordado nunca deja de estar vigente. Como el autor anuncia en el prólogo, su intención ha sido seguir algunas consideraciones realizadas por otros filósofos para intentar aproximarse, como si de asíntotas matemáticas se tratara, al entorno de la muerte. A lo largo del texto, Han irá bocetando diversas “caras” –aspectos, perspectivas, matices– de ella.

Una de las primeras preguntas es: ¿qué se hace ante la muerte? La muerte –de otro, pero también la anticipación de la propia– se presenta como una herida que provoca dolor. La filosofía de Hegel invita a superar la herida, a saltarla, a suturarla mediante la dialéctica. Theodor Adorno habla de una conmoción que lleva a detenerse, a vacilar, que sensibiliza el pensar. En el Heidegger de Ser y tiempo, la muerte es siempre la muerte propia. La de otro cobra relevancia únicamente en referencia a la mía. Para Emmanuel Lévinas, en cambio, la muerte del otro ocupa un lugar clave en la conformación de una ética: “Temer por el otro y su muerte es amar al otro”, pero la muerte propia debe resultar indiferente.

En la discusión con estas y otras posturas, Han va delineando su propia filosofía de la muerte que, por paradójico que pueda parecer, no es otra cosa que una filosofía de vida. Porque posicionarse ante la muerte no es simplemente prepararse para afrontar el punto final de la existencia, sino asumir la finitud que nos hace humanos cada día de nuestra vida: “Una finitud que no habría que entender como límite aniquilador, sino como espacio habitable”. La serenidad ante la muerte propia anunciada se traduce en hospitalidad para aquellos con los que compartimos nuestra vida, nuestra muerte: “Lo humano consistiría en poder compartir la muerte”. Para ello, es necesario dejar de concebirnos como individuos que buscan afirmarse, dominar a los otros, a la naturaleza, a las cosas; incluso, a las palabras. Se trata de abrirse al azar, en lugar de aferrarse y aferrar. Vivir como un “nadie” que no se angustia por su muerte, ni la de los demás, sino que asume su finitud con alegría, que “tendrá que aprender a vivir bajo el signo y a la luz del ‘ya estoy muerto’”.

En La sociedad paliativa, Han advierte acerca del peligro de anestesiar el dolor. En Caras de la muerte nos sugiere caminos para asumirlo –particularmente, el dolor mayor, el de la muerte– pero sin dejarnos doblegar por él. Y esto es algo que en una situación como la actual resulta invaluable.

jueves, 13 de mayo de 2021

INTELIGENCIA ARTIFICIAL PARA EL BIEN SOCIAL: CUANDO EL AVANCE TECNOLÓGICO AYUDA DE VERDAD

Para los próximos años se espera un boom de desarrollos tecnológicos que utilicen la inteligencia artificial (IA) para resolver problemas sociales y ambientales. Según el Banco Interamericano de Desarrollo, la IA podría aportar hasta un 14 % de riqueza adicional a las economías emergentes de América Latina

Por Axel Marazzi. 13 de Mayo de 2021

Reducir hasta un 40 % el consumo de agua en la agricultura, detener el avance del virus del Zika en África o predecir inundaciones en la India: la utilización de la IA para resolver los problemas del mundo es un área incipiente, pero llena de oportunidades. Mientras la aplicación de la IA en el mundo privado nos ofrece vehículos que se manejan solos, mejoras en los canales de compra digital y promesas de eficiencia y productividad, su vínculo con el mundo social —de la mano de organizaciones de la sociedad civil y Gobiernos— augura un boom en la solución de problemas ambientales y sociales.

El concepto hoy instalado de “IA para el bien social” (por “AI for Social Good”) ha sido adoptado hasta por los gigantes tecnológicos como Google o Microsoft, que lo aplican a iniciativas, conferencias, informes y talleres. Pero que las grandes tecnológicas hayan empezado ha utilizar este concepto no significa que sea nuevo.

Desde hace más de diez años existen movimientos “tecnooptimistas” como DataKind, Bayes Impact, Data Science for Social Good, AI4ALL o hack4impact, entre otros, que hablan sobre cómo utilizar la tecnología para abordar y resolver algunos de los desafíos más complejos que enfrenta la sociedad. ¿Por qué usar inteligencia artificial? Porque los algoritmos de machine learning pueden detectar, por ejemplo, cómo una solución en un lugar geográfico podría funcionar o no en otro lugar o qué modelos habría que modificar para que sí pudieran ser aplicada con éxito.

Los casos en los que la IA puede resolver estos problemas son extremadamente variables. Desde tecnologías que funcionan como aliadas de médicos para detectar enfermedades con menor margen de error, pasando por aquellas que ayudan a maestros a diseñar planes de estudio personalizados para sus alumnos, hasta las que determinan si hay que incrementar o reducir la frecuencia del transporte público teniendo en cuenta la hora y circulación de los pasajeros para que se viaje mejor y se gaste menos.

Reducir el uso del agua en la agricultura

Un ejemplo de cómo se utiliza la IA para mejorar el ambiente es Kilimo, un emprendimiento argentino nacido en Córdoba que logró hacer un uso más eficiente del agua en la agricultura. Si consideramos que esta actividad consume el 70 % del agua dulce disponible en el mundo, resolver el gasto innecesario tiene una importancia vital.

La plataforma Agtech de Kilimo lleva ahorrados más de 30 billones de litros de agua en 75.000 hectáreas monitoreadas en Latinoamérica, trabajando junto a productores de cultivos intensivos y extensivos de Argentina, Estados Unidos, Chile, Uruguay, Paraguay, México y Perú.

¿Cómo lo hace? Un algoritmo de aprendizaje automático analiza imágenes satelitales, bases de datos históricos y otras informaciones disponibles para estimar el consumo hídrico del cultivo a una semana y ofrecer entonces consejos sobre la cantidad necesaria de riego. La solución propone un balance hídrico mediante un sistema que se alimenta de datos satelitales, climáticos y la caracterización del campo en cuestión. Luego, aplica la metodología de big data para sugerir cuándo y con cuánta agua regar, según una estrategia de riego seleccionada por el agricultor.

El ámbito de la salud es uno de los que más oportunidades presenta para el uso de la IA. IBM, por ejemplo, trabaja en un proyecto que ayuda a frenar el avance del virus del Zika. La iniciativa, realizada en colaboración con el Instituto Cary de Estudios de Ecosistemas, con sede en New York, utiliza técnicas de aprendizaje automático para analizar datos sobre los virus y los primates que los portan para después comparar estos rasgos con 364 especies de primates en todo el mundo. Esto permite producir, finalmente, un mapa interactivo que muestra dónde corren mayor riesgo las personas de contraer la enfermedad.

Uno de los desarrollos que podría tener un inmenso impacto global es el que llevó a cabo AI for Social Good, de Google, para predecir inundaciones. Estas afectan a 250 millones de personas de todo el mundo y generan miles de millones de pérdidas en daños tanto para las personas, los Gobiernos y privados.

Un desarrollo tecnológico de Google puede predecir (y dar aviso) de futuras inundaciones analizando miles datos climáticos y geográficos. 

La empresa creó algoritmos que toman diferentes datos para presentar modelos de predicción para determinar mejor cuándo y dónde tendrá lugar una inundación. Pero no se queda ahí. También incorpora esa información en un sistema de alertas para avisarle a la ciudadanía. Este sistema desde su nacimiento activó decenas de miles de alertas que fueron vistas por más de 1.500 millones de personas. La primera fue en el año 2018 para la región de Patna, en India.

Lo bueno es que este tipo de tecnologías pueden extrapolarse. Por ese motivo, desde el buscador ya están desarrollando iniciativas similares para predecir terremotos e incendios forestales.

En el informe La inteligencia artificial al servicio del bien social en América Latina y el Caribe publicado por el BID se señala que: “La IA promete mejorar el diseño de los servicios digitales centrados en las necesidades de las personas y la eficiencia de procesos de importancia vital —como la prestación de servicios sociales y la transparencia en la toma de decisiones públicas— e incentivar la economía mediante aumentos en la productividad”. Y le pone número a la promesa: “Un ejemplo es el impacto que pueda tener en la economía de un país en vías de desarrollo; se estima que la IA podría aportar hasta un 14 % de riqueza adicional a las economías emergentes de América Latina”, explica el informe.

Un camino con inconvenientes

Sin embargo, el avance de la aplicación de IA para resolver los problemas sociales y ambientales es un camino que presenta sus inconvenientes. “La sociedad no tiene suficientes mecanismos adecuados para invertir en este tipo de desarrollos”, explica Saska Mojsilovic, jefa de inteligencia artificial en IBM Research. “Por lo general, invertimos en aplicaciones de inteligencia artificial generadoras de ingresos en lugar de hacerlo en estos problemas sociales, menos cómodos”, asegura.

Según Mojsilovic, todo lo que respecta a la inteligencia artificial aplicada a lo social está todavía en pañales y falta tiempo para que veamos su explosión. Lo bueno es que eso significa que hay cientos de potenciales aplicaciones que pueden ser resueltas entre equipos ayudados a través de la tecnología.

“Muchas organizaciones no gubernamentales y agencias gubernamentales no están todavía utilizando el poder que tiene la inteligencia artificial como sí lo está usando el sector privado. En los próximos diez años veremos un esfuerzo muy grande de aplicar estas tecnologías para el bien social”, comenta en Raconteur y agrega: “Espero que usar la tecnología para atacar problemas relacionados al hambre, las enfermedades y la pobreza nos hagan mejores humanos. Todo se reduce a qué diseñemos y dónde hagamos nuestras inversiones. La tecnología existirá, pero la decisión es nuestra.

Un informe del BID subraya la importancia de la IA para el futuro de América Latina y, al mismo tiempo, señala el largo camino por recorrer en términos de alcanzar un mayor desarrollo e incidencia.

¿Qué hace falta para que funcione? Lo responde el informe del BID: “El éxito del aprovechamiento de esta tecnología dependerá de numerosos factores: la existencia de una visión común con la que se puedan alinear todos los esfuerzos y actores de los ecosistemas de IA; la dotación de una infraestructura digital facilitada por los Gobiernos en alianza con el sector privado; la formación de talento local y la investigación sobre temas pertinentes; la adopción de IA por parte de la sociedad civil para avanzar en sus objetivos; la decisión de poner al ser humano en el centro de toda conversación y actividad relacionada con la IA; el impulso del ecosistema emprendedor y el respeto de marcos y lineamientos éticos para su desarrollo y uso”.

Dependiendo de cómo se utilice esta tecnología funcionará como nivelador o divisor. Permitirá generar mayor igualdad, inclusividad y ampliación de derechos o, por el contrario, nuevas desigualdades, exclusiones y sesgos. Hace tiempo estamos viendo —por suerte— cómo nacen emprendimientos que, justamente, buscan atacar estas problemáticas, pero para que florezcan hace falta intención e inversión estatal.

Mark Purdy, un asesor independiente en economía y tecnología de Inglaterra, publicó un artículo en Harvard Business Review, donde lo explica con extrema claridad: “La respuesta está en nuestras propias manos. Al tomar medidas ahora para abordar los prejuicios y los riesgos, las empresas y los Gobiernos pueden comenzar a hacer de la inteligencia artificial una verdadera fuerza para el progreso social y la prosperidad económica”, asegura.

miércoles, 28 de abril de 2021

CORONAVIRUS: RANKING DE RESILIENCIA DE BLOOMBERG

 Informe a abril de 2021

https://www.bloomberg.com/graphics/covid-resilience-ranking/