Existen
disciplinas en las que el conocimiento precede a las explicaciones; suele pasar
con la medicina y es un fenómeno en el que queda lo que algunos llaman la
"deuda intelectual"
Sebastián
Campanario. 11 de agosto de 2019
Crédito: Javier Joaquín
Con
más de 300 millones de libros vendidos y adaptaciones a cine y TV de casi toda
su obra, en el año 2000 el autor estadounidense Stephen King decidió publicar
un ensayo sobre su oficio, titulado Mientras Escribo (On Writing). King cuenta
en el prólogo que a principios de los años 90 formó una banda musical con
varios colegas escritores, "Los Rock Bottom Remainders", todos muy
exitosos (en la literatura), y que en las conversaciones con ellos durante los
viajes surgía un tema común: nadie conocía "la fórmula" para hacer
best sellers. Simplemente sucedía. "Evitamos preguntarnos mutuamente de dónde
sacamos las ideas. Sabemos que no lo sabemos", cuenta el autor de Carrie,
It y El resplandor. "Los narradores no tenemos una idea muy clara de lo
que hacemos. Cuando algo es bueno no solemos saber por qué, y cuando es malo,
tampoco".
Como
en el chiste de economistas que sostiene que las estadísticas son como las
salchichas ("pueden ser muy sabrosas, pero mejor no preguntar cómo se
hicieron"), hay distintas disciplinas donde el conocimiento a menudo
precede a las explicaciones. Primero, llegan las respuestas, que funcionan; y a
veces las explicaciones aparecen décadas o siglos más tarde. Cuando lo hacen.
Esta
dinámica es común, por ejemplo, en la medicina, donde cada año se aprueban
remedios que son testeados para distintas enfermedades pero cuyos mecanismos
para promover determinadas reacciones se desconocen (y así suele constar en el
prospecto). A veces el éxito de un medicamento inspira y fondea nuevas
investigaciones que pueden llegar a una explicación, pero esto no siempre
ocurre. La aspirina se descubrió en 1897, pero recién en 1995 la ciencia logró
una explicación convincente sobre su mecanismo. La estimulación cerebral (vía
electrodos que se implantan) que se usa para algunos enfermos de Parkinson y
otras enfermedades se aplica ya desde hace más de 20 años con éxito creciente,
pero nadie puede decir exactamente cómo o por qué funciona.
El
profesor de Ciencias y de la Computación y de Derecho de Internet de la
Universidad de Harvard Jonathan Zittrain bautizó a este fenómeno de respuestas
que se acumulan sin explicaciones que las sostengan como "deuda
intelectual". En el pasado, este déficit estuvo limitado a determinadas
disciplinas que avanzan mayormente con una dinámica de "prueba y
error", como la medicina. La novedad es que con los avances más recientes
en inteligencia Artificial (IA), la deuda intelectual se está multiplicando
hasta niveles nunca conocidos. Esto es porque la avenida estrella de la IA de
2019, el aprendizaje automático ( machine learning), avanza justamente con esta
lógica de prueba y error acelerada, sin capacidad para brindar explicaciones
conceptuales de por qué descubrió un nuevo material o un nuevo tratamiento para
el cáncer.
Hay
varios factores que le dan combustible a este motor, explica Zittrain. Uno de
ellos tiene que ver con que el boom del aprendizaje automático implica un
negocio multimillonario fogoneado por el sector privado, que se contenta con
soluciones que generen ganancias y no exige tantas explicaciones como suele
pasar en el campo académico. "El aprendizaje automático funciona
identificando patrones en océanos de datos. Usando esos patrones se aproximan
respuestas que se testean y se van refinando. La mayoría de estos sistemas no
se meten con una explicación conceptual, solo son máquinas de identificar correlaciones,
'no piensan' en un sentido humano", dice el profesor de Harvard.
En
la medida en que el aprendizaje automático se vuelve ubicuo en nuestra vida
cotidiana, aumenta la "deuda intelectual". En 2019, por primera vez
las personas están confiando más en lo que les dicen los algoritmos que en lo
que escuchan de otros pares.
Tercerizar
la conciencia
El
fenómeno no es nuevo y hay varios tecnólogos y especialistas en epistemología
estudiándolo. En el libro This Will Change Everything (Esto lo va a cambiar
todo), publicado en 2009 por el editor de Edge John Brockman, se especula en
varios ensayos sobre una crisis del positivismo científico, en la medida en que
los problemas se van haciendo más y más complejos.
Así
como la edad promedio en la que hicieron sus descubrimientos principales los
ganadores de premios Nobel se incrementó casi diez años, en distintas
disciplinas se va tomando conciencia de que no basta con un solo cuerpo teórico
para entender y atacar la complejidad de los problemas más graves que nos
rodean.
Días
atrás, el economista Tyler Cowen publicó un ensayo en The Atlantic llamando a
promover una "nueva ciencia del progreso". "El progreso en sí
está subestudiado. Por ?progreso' entendemos una combinación de avances
económicos, tecnológicos, científicos, culturales y organizacionales que vienen
transformando y subiendo nuestro estándar de vida en los últimos dos siglos.
Por varias razones, no hay estudios amplios sobre la dinámica del progreso, y
de cómo hacer para profundizarlo y acelerarlo", explicó el economista.
Para Cowen, muchas disciplinas atacan el tema, pero de manera fragmentada, y fallan
al intentar dar con explicaciones a preguntas prácticas.
Ahora
bien, si el nuevo conocimiento sirve para solucionar problemas, ¿cuál es el
drama con que se demoren las explicaciones? Zittrain cree que muchas respuestas
pueden funcionar bien "aisladas", pero que en un mundo de sistemas
complejos recostarnos cada vez más sobre esta deuda intelectual puede resultar
peligroso, porque empiezan a aparecer sesgos e inconsistencias en el conjunto
de sugerencias de los algoritmos. La programadora australiana Kate Crawford
mostró el año pasado una línea de tiempo donde las "catástrofes"
producidas por algoritmos fuera de control (desde el affaire de Cambridge
Analytica hasta fallas masivas de ciberseguridad) están aumentando su
frecuencia e intensidad al mismo ritmo que ocurre con los desastres naturales
con el cambio climático. "Si usamos aprendizaje automático para llegar a
la mejor receta de pizza, tal vez no tenga mucho sentido preocuparnos por la
explicación, convenga callarnos la boca y disfrutar de la pizza. Pero cuando
confiamos en la IA para hacer predicciones de salud, más vale que estemos
completamente informados", escribe Zittrain en un artículo de julio del
New Yorker.
En
su temporada 2019 del podcast Aprender de grandes, Gerry Garbulsky plantea con
preocupación la posibilidad de que en un futuro cercano vayamos
"tercerizando" muchas de nuestras funciones cognitivas en
aplicaciones y programas más efectivos. Así como ya no recordamos los teléfonos
de memoria (grabados en los contactos del celular) o no tenemos la necesidad de
conocer las calles de la ciudad (porque existe Waze), si ese proceso se
profundiza terminaría en seres humanos como un mero "hardware" de una
conciencia tercerizada en otro lugar. Hasta a Stephen King le hubiera costado
imaginar semejante escenario para una de sus novelas de terror. Y encima, sin
poder explicar luego cómo se le ocurrió la idea.
No hay comentarios:
Publicar un comentario