Desconocen la
intuición, no pueden improvisar y dependen de la información -muchas veces
sesgada-que les suministran sus programadores humanos: ¿depositamos excesiva
confianza en sistemas veloces y precisos, pero que distan de ser
infalibles?
20 de enero de 2019
En junio de 2015 un
usuario de Google Photos descubrió que el programa etiquetaba a sus amigos
negros como gorilas: la inteligencia artificial (IA) era incapaz de distinguir
una tez oscura de otra. Después de las disculpas, la compañía de Silicon Valley
mostró su solución: quitar del buscador a los gorilas. Las explicaciones
llegaron más tarde. Los algoritmos habían heredado los prejuicios que los
programadores, una mayoría de hombres blancos, habían filtrado en las bases de
datos que alimentaba el servicio. Lejos de cerrar el caso, los argumentos
detonaron una seguidilla de preguntas inquietantes. ¿Qué pasaría si, ante un
choque inminente, la IA de un auto no tripulado se viera forzada a elegir entre
atropellar a una persona blanca o a una negra? La respuesta más probable -un
escándalo de incorrección en la era de la corrección política- escalaba el
asunto a niveles insospechados.
La irrupción masiva
de la IA en la vida cotidiana empezó a desnudar más dilemas incómodos. A
principios del año pasado, una investigación de la Universidad de Darmouth
confirmó el sesgo racista de Compas, el sistema que usan los jueces
estadounidenses para apoyar sus decisiones y ya revisó el historial de más de
un millón de convictos. La conclusión es que Compas desaconsejaba la libertad
de los negros -a quienes además perjudicaba con falsos positivos, pronosticando
más reincidencias que las reales- con mayor frecuencia que la de los blancos, a
quienes beneficiaba con falsos negativos. Una explicación posible: el programa
trabaja con bases de datos de la policía, propensas a tratos diferenciados
según el color de piel.
"Las fallas de
los sistemas de IA se basan en el aprendizaje automático: la capacidad de
aprender qué acciones tomar a partir del uso de datos", explica Viviana
Cotik, docente e investigadora del Departamento de Computación de la UBA.
Cuando ese entrenamiento es sesgado, el sesgo se traslada al sistema. "Si
la estadística dice que la mayoría de los acusados de un crimen son personas
negras, el sistema asume que es más probable que los culpables sean
negros", razona. Aunque la raza no sea una de las 137 variables que
analiza Compas, datos como el barrio o el nivel educativo pueden llevar a
conclusiones en esa línea, acertadas o no. "En un sistema de caja negra no
sabemos qué pasa adentro", reconoce Cotik. "Y es difícil confiar si
no se entiende la lógica interna".
La investigadora
está inquieta con la omnipresencia de Google, un emporio cuyo sistema operativo
Android hace funcionar los teléfonos de más de dos billones de usuarios.
"Sabe dónde estás, de qué hablás, qué escribís, qué opinás y qué hacés en
la web", advierte. Un ejemplo: las respuestas automáticas que propone
Gmail. Nos lee, nos interpreta y nos sugiere tres opciones para seguir
conversando.
Respuesta
automática
"Hace poco
hacía el mismo camino para ir al trabajo y a la noche veía la película que se
me ocurría. Hoy le pregunto al celular la temperatura y la mejor opción para
viajar. También me recomienda películas, no sé bien en función de qué",
reconoce una fuente consultada para esta nota, temerosa de los efectos
colaterales estupidizantes: "Antes conocía muy bien Buenos Aires. Ahora
entro en pánico si no tengo el teléfono". Diego Fernández Slezak -director
del Laboratorio de Inteligencia Artificial Aplicada (Conicet-UBA)- exculpa a
las máquinas: "Como todo lo que se pone de moda, muchísima gente empieza a
utilizar la IA para cualquier cosa".
La democratización
de la herramienta puede romper barreras éticas y técnicas. Es lo que pasó
cuando Juan Manuel Urtubey aseguró que la gobernación salteña usaría técnicas
de IA para detectar qué niñas estaban "predestinadas" a quedar
embarazadas. "No existían preguntas sobre anticoncepción ni educación
sexual. Pero sí sobre edad, etnia, estudios, barrio de residencia,
discapacidad, país de origen y abandono de estudios", escribió la
periodista Natalia Zuazo en su blog Política y Tecnología. El
modelo replicaba prejuicios como asociar el embarazo con la pobreza, o la
promiscuidad con determinadas etnias y lugares.
De vuelta a los
autos, un paper firmado por cuatro universidades estadounidenses concluyó en
abril de 2018 que, el 60% de las veces, los no tripulados pasan de largo ante
una señal de "pare" adulterada. Como fueron entrenados para ver
patrones, los desajusta un leve cambio de simetría. "Usan IA pero no se
trata de un cerebro pequeño, como nos quieren hacer creer sus
fabricantes", plantea Meredith Broussard, exprogramadora, periodista y
profesora en la Universidad de Nueva York. "Son sistemas de computación
que a veces no reconocen obstáculos comunes". La primera vez que se subió
a un vehículo autónomo, en un estacionamiento de Pensilvania, la pasó muy mal:
"Primero sentí que iba a vomitar y después que iba a morir. Estábamos por
chocar contra una pared de cemento cuando un conductor tomó el volante".
En esos segundos febriles, quizá haya pensado en la sentencia del filósofo
surcoreano Byung-Chul Han: "La máquina no es capaz de detenerse. A pesar
de su enorme capacidad de cálculo, es estúpida en cuanto le falta la capacidad
de vacilación".
Elon Musk, el
creador de Tesla (una de las automotrices que promueven la autonomía), avisa
que deberíamos temer lo que viene. Por eso impulsó con Stephen Hawking la
fundación Future of Life, que persigue el desarrollo responsable de las
investigaciones sobre IA bajo principios como la transparencia de fondos, la
fijación de cláusulas que prioricen "el beneficio de la humanidad" y
que ninguna IA pueda decidir sobre una vida humana. Bajo determinadas
condiciones, cualquier sistema inteligente podría corrernos de la ecuación.
Alertadas por la voz de esos científicos, cada vez más personas reclaman
fiscalizar las cajas negras. ¿Qué tipo de fallas podrían tener, o estar
teniendo? ¿Cuán inteligentes son las inteligencias artificiales?
Educar al robot
"Mi celular me
escucha todo el tiempo", dice la misma fuente que teme a la estupidización
tecnológica, en el preciso momento en que una voz artificial irrumpe en la
conversación: su alarma de Google Assistant contándole el pronóstico. Sus temores
-que los integrados llamarían paranoia- podrían escalar a niveles masivos si
viviera en Londres, donde la policía experimenta con tecnologías de
reconocimiento facial en vivo en la vía pública. Más allá de las críticas por
la intrusión, el sistema detecta a un número "asombroso" de inocentes
a los que define como sospechosos de crímenes, incluyendo a manifestantes,
hinchas de fútbol y personas con problemas de salud mental, según una
investigación de la organización Big Brother.
Las regulaciones
están en una fase germinal. En noviembre del año pasado, un comité de expertos
aprovechó un encuentro de alto nivel en Bruselas para recomendar al Parlamento
Europeo que fomente una IA basada en decisiones éticas. También propuso crear
una agencia continental que la supervise con un sistema similar al de los
medicamentos. "Un sistema tiene que poder explicar por qué hace lo que
hace en términos que permitan entender las razones detrás de las posibles
elecciones", explica el doctor en Ciencias de la Computación Guillermo
Simari.
En aquel encuentro
un grupo de ejecutivos de Facebook, Microsoft y Google levantaron algunos muros
de defensa antes las críticas por sus desastres en IA. "¿Queremos que los
algoritmos reflejen la realidad o la corrijan?", se defendió uno de ellos.
Cotik propone una inteligencia que entienda el enfoque sobre el que actúa y las
variables que entran en juego en cada caso. "No tienen lo que podemos
definir como intuición -recuerda Fernández- . La pregunta es cómo hacemos los
humanos que hacemos IA, para que las IA modifiquen nuestros sesgos". En
esa línea imagina un ente regulador que lleve un registro de cómo y con qué
métodos se entrenó cada una. "Es urgente que la industria cree sus
regulaciones y que los gobiernos legislen sobre la publicidad -coincide Broussard-.
Tenemos derecho a conocer los efectos secundarios".
El doctor en
Filosofía Diego Lawler señala una trampa en el juego de reducir la tecnología a
un problema instrumental: "El ingeniero estaría en un lugar análogo al que
tiene la naturaleza en la evolución; selecciona de manera neutral". Pero
ese mundo independiente de nuestras valoraciones y responsabilidades es una
ilusión: "Proponer un diseño tecnológico es haber ejercido un acto de
libertad, creando uno y no otro. Quienes lo instrumentan son responsables de
sus elecciones". En este escenario, ignorar a la inteligencia detrás del
artificio es "por un lado, entregarse a un destino tecnológico que parece
imponerse fatalmente; y por otro, naturalizar los polos de poder económico y
político que subyacen a los sistemas que se proponen regimentar la vida
social". Como subirse a un auto que, sin vacilar, puede llevarnos directo
contra la pared.
Control de daños
Todos hablamos de
IA. Es sexy, dirían los estadounidenses. Pero la IA falla. Y cuando falla, hace
ruido. "Hay muchos investigadores haciendo sistemas de machine learning
porque son económicamente efectivos", plantea el doctor en Ciencias de la Computación
Guillermo Simari. Pero también son muy frágiles, algo que no preocupa al
científico que dirige la división de IA de Facebook, Yann LeCun. En mayo del
año pasado LeCun se mostró preocupado por la posibilidad de que las demandas
crecientes por un mayor entendimiento de estos procesos frenen la innovación y
desalienten la adopción de IA. "No es alquimia, es ingeniería -se fastidió
ante la revista Science-. Y la ingeniería es desorganizada".
Simari se indigna: "No solo no es cierto, sino que también es una forma
peligrosa de pensar. Imaginemos si un ingeniero civil o un diseñador de aviones
nos diera esa excusa".
Los humanos sabemos
improvisar. Entendemos el contexto mejor que un algoritmo alimentado a bases de
datos. La opacidad de la caja negra, en cambio, tiene secretos hasta para sus
inventores. El programador conoce las bases y los algoritmos, pero las claves
del proceso y del producto se le pueden escapar. ¿Podría la caja estallar en
nuestras manos? Para Diego Fernández Slezak (director del Laboratorio de IA
Aplicada, Conicet-UBA), es un tema de capacitación del homo sapiens. La
profesora y periodista Meredith Broussard, que escribió Artificial
Unintelligence (algo así como "Estupidez artificial"), opina
que el entusiasmo por aplicar la tecnología computacional en cada aspecto de
nuestras vidas -buscar trabajo, manejar, pagar las cuentas, elegir pareja-
derivó en una cantidad enorme de sistemas de IA mal diseñados. "Tienen
debilidades importantes. Imaginamos que son más poderosos de lo que son, y esa
asunción es peligrosa", insiste. Desde esta perspectiva, la profecía que
el matemático Alan Turing lanzó hace casi siete décadas -solo habrá una IA
auténtica cuando interactuemos con ella sin saber si es una persona o una
máquina- parece lejana.
Otras predicciones
suenan más plausibles. Con un poder de cómputo muy superior, las computadoras
tienen un potencial imbatible para lo específico y lo repetitivo. El Instituto
Global McKinsey estima que 375 millones de personas (el 14% de la fuerza de
trabajo global) podrían ver sus trabajos automatizados para 2030. Fernández
-que trabaja con la fundación FLENI en una start up para el
análisis automático de resonancias- asegura que la IA no va a reemplazar a los
médicos. "No tiene sentido competir desde el punto de vista de la
eficiencia y la precisión de los resultados - reconoce-, pero la computadora no
responde a lo afectivo. El diagnóstico puede estar dado por una máquina, pero
el profesional lo transmitirá de la forma adecuada". La investigadora
Viviana Cotik desconfía: "Quien desarrolla esos sistemas no necesariamente
estudió Medicina. ¿Cómo sabemos que el diagnóstico es acertado? Hacen falta
comités de ética y controles de calidad". Nuevas soluciones para nuevos
problemas.
Por: Pablo Corso
No hay comentarios:
Publicar un comentario