lunes, 18 de noviembre de 2019

QUÉ ES LA INICIATIVA "BRAIN", EL MISTERIOSO VIAJE AL CEREBRO HUMANO QUE ENCABEZA EE. UU.


El plan fue lanzado por Obama en 2013. Estará listo para 2028. Las posibilidades detrás de este proyecto son insondables y rozan la ciencia ficción.
Juan Décima. Clarín. Mundo

Fue el 2 de abril de 2013 cuando el entonces presidente de Estados Unidos Barack Obama anunció el lanzamiento de la Iniciativa BRAIN en el East Room de la Casa Blanca. El objetivo del proyecto (brain quiere decir cerebro en inglés) era tan ambicioso como vasto: 15 años de duración, un presupuesto total estimado en 4.500 millones de dólares y laboratorios distribuidos alrededor de todo el mundo, todos trabajando en pos de mapear toda la actividad neuronal del cerebro, y entender cómo funciona el más misterioso de los órganos.

Desde la posibilidad de tratar el Parkinson y el Alzheimer​ hasta la creación de prótesis que permitan vincular el cerebro directamente a Internet, los potenciales avances que se adivinan detrás del éxito de BRAIN se asoman como capaces de solucionar algunos de los problemas más insondables de la medicina, como así también de alterar el paradigma de lo que se entiende es un ser humano.

“El proyecto BRAIN es importantísimo porque está enfocado en crear herramientas, las cuales les van a permitir a los científicos hacer descubrimientos importantes", afirma Rafael Yuste (56), un neurobiólogo español que actualmente trabaja en el Universidad de Columbia en Nueva York, Estados Unidos. Además de ser uno de los investigadores más citados del mundo en el campo de la neurociencia, es uno de los ideólogos de la Iniciativa BRAIN, que quiere decir Brain Research through Advancing Innovative Neurotechnologies (Investigación del cerebro a través del avance de neurotecnologías innovadoras).

"Los enviones más importantes para la ciencia se los dan las tecnologías. Los científicos podemos creer que somos claves, pero en realidad, sólo podemos ver lo que nuestras herramientas nos permiten”, explicó Yuste en diálogo con Clarín durante su reciente paso por Buenos Aires, donde llegó invitado por el programa Argentina 2030 de la Jefatura de Gabinete de Ministros del gobierno nacional. “Gracias a esta tecnología, vamos a entender cómo funciona el cerebro, y el cerebro genera la mente humana. Tal vez no seremos nosotros los que lleguemos a hacerlo, pero esto va a permitirle a las nuevas generaciones profundizar investigaciones y estudios sobre la neurociencia”, completa.

No hace falta ser científico para notar que, en los últimos tiempos, la neurociencia está en todas partes. Desde el marketing y la economía hasta la autoayuda, no pareciera haber disciplina que no esté encandilada por la “moda neuro”. Tampoco es difícil entender por qué: es evidente que la clave para entender los aspectos centrales del comportamiento humano está en el cerebro, el órgano más fascinante y misterioso de todos. Y si bien ha habido avances en los últimos años que han alimentado esta suerte de pasión por la ciencia, el tema es que aún no se sabe a ciencia cierta cómo funciona. Sin embargo, para científicos e investigadores del campo, la posibilidad de descifrar el “lenguaje” del cerebro es un horizonte que se atisba como algo que está cada vez más cerca.

La neurociencia es el campo de la ciencia que estudia el sistema nervioso y la interacción entre las diferentes partes del cerebro que dan lugar a las bases biológicas de la cognición. El “padre” de la neurociencia moderna es el médico e investigador español Santiago Ramón y Cajal, quien obtuvo el Premio Nobel de Medicina en 1906 junto al italiano Camillo Golgi por su trabajo sobre la estructura del sistema nervioso. Es decir que, como disciplina autónoma, es relativamente nueva.

“Era una ciencia secundaria, después de física, la química y la biología molecular. Ahora ha madurado, es como un niño que creció, y está listo para tomar su lugar. El proyecto BRAIN fue un momento crucial en este proceso de consolidación”, explica Yuste, quien no tiene dudas de que la neurociencia va a terminar siendo “la ciencia central de la humanidad”. “Podría llegar a ser una disciplina que se mueva en pie de igualdad con la física y la química”, opina.

Un misterio a resolver
La iniciativa BRAIN está modelado en base al proyecto del Genoma Humano, una iniciativa científica global que se lanzó con el objetivo de identificar los cerca de 25000 genes que componen el ADN humano. Hay alrededor de 500 laboratorios alrededor del mundo haciendo investigaciones en el marco de BRAIN, que está en el quinto año de los 15 que se prevé que durará. Se calcula que el presupuesto final del proyecto rondará los 6000 millones de dólares. Según Yuste, la iniciativa está llegando a su “velocidad crucero”, una suerte de punto medio de su recorrido.

Los objetivos generales del proyecto se pueden dividir en tres grandes grupos: mapear la actividad neuronal, asistir en la cura de condiciones neurológicas y contribuir a la creación de nuevos modelos teóricos e informáticos. El primer objetivo se refiere a la posibilidad de registrar la actividad de las 70 mil millones de neuronas se estima tiene el cerebro. La neurona es la célula principal del sistema nervioso, y es la encargada de recibir, procesas y transmitir información a través de señales químicas y eléctricas. El funcionamiento del cerebro es tan complejo que hasta ahora sólo se ha podido registrar la actividad de grupos pequeños de neuronas al mismo tiempo.

El segundo objetivo es el que tiene una aplicación más directa y palpable. Entender el funcionamiento del cerebro podría derivar en la posibilidad de entender qué es una depresión, un retraso mental o una enfermedad neuronal. Potencialmente, podría asistir en el tratamiento de condiciones como el Alzheimer o el Parkinson. El tercer objetivo se refiere a cómo develar el funcionamiento del cerebro podría redundar en mejoras a la inteligencia artificial, y a los modelos informáticos.

 “Estas herramientas pueden ayudarnos a develar cómo los cerebros hacen cálculos, y es casi seguro que usan algoritmos mucho más sofisticados que las que actualmente usa la inteligencia artificial. Y con un gasto energético muchísimo menor”, explica Yuste, quien acota a su vez que la inteligencia artificial funciona en base a cómo se pensaba que funcionaba el cerebro en la década del 70. O sea, un modelo perimido.

“Algunas de las computadoras más poderosas en la actualidad necesitan una central eléctrica propia para operar. En cambio, una hormiga, con un cerebro de un miligramo, hace unas operaciones de altísima complejidad con un gasto energético mínimo. En el caso del cerebro humano, el gasto energético es similar al de un foco de luz. La naturaleza descubrió algo hace 700 millones de años que nos puede enseñar, y es algo que seguramente puede revolucionar la industria informática”, remata.

Nuevos riesgos y nuevos derechos
De no mediar inconvenientes, la evolución de la iniciativa BRAIN llevaría primero a la creación de tecnologías que permitirían entender el funcionamiento del cerebro, lo que a su vez abriría el camino a que se pueda directamente intervenir y manipular la actividad cerebral. Esto redundaría en beneficios para los tratamientos médicos de condiciones neurológicas, pero también abriría la puerta a que se pudiesen aplicar “mejoras” a personas que no tienen problemas de ningún tipo.

“La mente es el cerebro, el tema es que no lo entendemos. Pero una vez que nuestras herramientas y tecnologías nos permitan estudiar el cerebro, vamos a poder entender y manipular los pensamientos de la gente. Por eso, tenemos que ser muy responsables, sobre todos los científicos como yo”, acota Yuste, quien ya ha hecho una propuesta para tratar de lidiar con esta cuestión. Junto con otros 25 especialistas del campo, postuló una serie de reglas éticas en la revista Nature que servirían para regular la aplicación de estas tecnologías. Les dieron el nombre de neuroderechos, y el objetivo es que en última instancia sean incorporados a la Declaración Universal de los Derechos Humanos.

“La idea es que haya una protección que sirva para proteger nuestras propiedades más esenciales. Esto es inédito en la historia, porque a nadie se le pudo haber ocurrido que algún día seríamos capaces de intervenir y manipular la actividad mental, y que las características básicas del ser humano pudieran ser modificadas”, explica para explicar el porqué de su determinación.

Los cinco derechos son los siguientes:
Derecho a la privacidad mental: Esto se refiere no a los datos que uno pone en el celular, sino a la información que está en las neuronas. Los datos de las neuronas generan la mente, y por eso deben estar regulados con un rigor legal que prohíba comercializarlos. Tendría un rigor legal similar al que regula los órganos humanos. No se puede comprar o vender un riñón. Sí se puede donar un órgano, y ese sería el mismo caso para los datos neuronales.

El segundo y el tercero están interrelacionados: son el derecho a la identidad personal y al libre albedrío. Tiene que ver con las interfases cerebro-computadora que se están desarrollando en el proyecto BRAIN, y abren la puerta a maneras más eficientes de conectar los cerebros de los pacientes a la red. Esto sería de gran utilidad para pacientes parapléjicos, ya que podrían llegar a operar brazos y piernas robóticas a través de una interfase cerebro-computadora.

También podría ayudar a ciegos. Actualmente se están desarrollando prótesis inalámbricas que se podrían implantar debajo del cráneo. Conectadas a una cámara, estas prótesis podrían estimular la actividad neuronal de una forma similar a cómo trabaja la visión. Este avance tecnológico, sin embargo, también permitirá la creación de prótesis que conecten el cerebro de personas sin ningún tipo de discapacidad directamente a Internet.

“Cuánto más conectado uno esté, menos atributos humanos tendrá. Cuanto más dependa de la red para tomar decisiones, menos libre albedrío tendrá. La sensación de identidad personal, el ‘yo’ y el libre albedrío, la capacidad de tener agencia, son derechos humanos fundamentales. La única razón por la cual no están consagradas oficialmente es porque a nadie jamás se le ocurrió que ese tipo de instancias pudieran ser modificadas artificialmente. ¿Quién podría haber pensado alguna vez que una persona no tendría capacidad de decisión propia?”, explica Yuste para fundamentar el porqué de la inclusión de este derecho.

Derecho al acceso equitativo: Al igual que los trasplantes de órganos, lo que se busca es que estas tecnologías sirvan para mejorar la vida de pacientes discapacitados. Si se permite a cualquiera instalarse un electrodo en la cabeza con la cual conectarse a Internet, las personas podrían tener acceso a algoritmos que les aumenten sus funciones cognitivas.

“Se podría tener acceso a un traductor de todos los idiomas; acceso instantáneo a la bolsa de Wall Street. Las ventajas económicas y sociales de estar conectado directamente a la web serán siderales. Esto significa que podría haber personas cognitivamente ‘aumentadas’, y otras que no. Una fractura social entre dos tipos de seres humanos, entre quienes tienen acceso a esta tecnología, y quienes no”, detalla Yuste, que sostiene que la decisión respecto a quien recibe este tipo de implantes deberá tomarse en base a “argumentos médicos, y no económicos o sociales”.

Derecho a la no discriminación, o al resguardo de los sesgos de los algoritmos: las prótesis que se instalarán en los pacientes funcionarán con algoritmos de inteligencia artificial creados por programadores e ingenieros de software. Es sabido que los algoritmos reflejan sesgos, que son los sesgos inconscientes de las personas que las crean. Si eso termina en dispositivos dentro del cerebro humano, se corre el riesgo de que las personas terminen con esos mismos sesgos. Al manipular el cerebro de las personas, hay que tener un celo máximo de que lo que ingresa allí esté limpio.

EL AVANCE TECNOLÓGICO AMENAZA A LOS JEFES SINDICALES


Alberto Fernández designó a Beliz para ser el articulador con la CGT y activar un centro de capacitación laboral más moderno
Nicolás Balinotti. 16 de noviembre de 2019 

El Sindicato de Empleados de Comercio, el más numeroso del país, perdió 62.000 puestos de trabajo en 18 meses, según un relevamiento interno. "La mitad fue por la crisis, por el cierre de pymes, pero la otra mitad fue por el avance tecnológico", argumenta un jerárquico del gremio que Armando Cavalieri tiene en puño desde 1986.

Las nuevas tecnologías, o la inteligencia artificial, como le llaman ahora, son la gran amenaza a los sindicatos tradicionales. Como afectó a Comercio, también impacta de lleno en otras actividades, desde bancarios a transportistas. Para detener la hemorragia, Cavalieri pactó un plan de reducción de aportes patronales con empresas de electrodomésticos y evalúa imitarlo con los grandes cadenas de supermercados. Cambiaron los hábitos: cada vez más gente hace las compras de manera digital.

Preparado para su regreso a la actividad privada, el ministro de Producción y Trabajo, Dante Sica, sigue de cerca el proceso y vislumbra que los empleos que se pierden en un sector se recuperarían en el mediano plazo en la cada vez más aceitada cadena de logística que requiere el comercio digital. Es la raíz de la tensa disputa que mantiene retórica y judicialmente Hugo Moyano con Sica y Marcos Galperin, el cerebro de Mercado Libre.

Más combativo que Cavalieri y esquivo para negociar una eventual rebaja de aportes, el bancario Sergio Palazzo redobla la apuesta con protestas por la representación de unos 5000 trabajadores que se desempeñarían en el sistema financiero tecnológico ( fintech) y que considera que deberían estar encuadrados en su gremio. Su disputa, como la de Moyano, también es con Galperin, por la aplicación Mercado Pago. Aunque su conflicto más urgente es ahora por el riesgo de cierre de sucursales del HSBC en cinco provincias. "El home banking permite manejar la cuenta bancaria desde cualquier lugar y las sucursales bancarias paulatinamente se transforman en centros virtuales totalmente automatizados sin presencia humana", escribió el abogado laboralista Julián De Diego en El Cronista. Algo de eso habría detrás del ajuste en HSBC, a pesar de que desde el gremio sospechan que se trataría de un intento de las autoridades en condicionar una negociación con el futuro gobierno.

En este contexto, no fue para nada casual el mensaje que Alberto Fernández les bajó a los gremios hace ocho días en la CGT. Exhortó a los jefes sindicales a montar en la histórica sede de Azopardo un centro de educación tecnológica para capacitar a los trabajadores. Simbolismo puro.

Tampoco fue casual que el presidente electo haya sentado en la primera fila de la CGT a Gustavo Beliz, a quien se lo vio conversar animadamente con Moyano. El exministro de Justicia, que está dispuesto a regresar a la función pública tras un autoexilio de 15 años, es un estudioso de los cambios en el mundo laboral y disertó sobre el tema en el Vaticano, tal como lo contó el periodista Pablo Maradei en el sitio www.mundogremial.com. "Debemos ser conscientes de que hay un calentamiento global tecnológico sobre nosotros", dijo Beliz el mes pasado durante el seminario "Dignidad y el futuro del trabajo", organizado por la Pontificia Academia de Ciencias Sociales que dirige el monseñor argentino Marcelo Sánchez Sorondo.


Si bien Claudio Moroni será el futuro ministro de Trabajo, Héctor Daer, uno de los dos jefes de la CGT, reconoció que Beliz será uno de los articuladores con los gremios sobre el desarrollo tecnológico. "Tiene una idea revolucionaria", lo elogió el líder sindical. Y dejó una advertencia, destinada más a los empresarios que a la futura gestión: "La tecnología no puede ser utilizada para multiplicar riquezas en detrimento de los trabajadores y para precarizarlos".

En su viaje a México, Alberto Fernández visitó una sede de la empresa de software Globant, fundada por el argentino Martín Migoya, uno de los impulsores del chat de empresarios "Nuestra Voz" y quien apoyó abiertamente la reelección de Mauricio Macri, como Galperin.

En el Distrito Federal, donde Globant emplea a unas 1200 personas, Fernández escuchó los avances sobre una aplicación (app) de YPF que funciona en la Argentina como una suerte de billetera electrónica, en la que se centralizan pagos, descuentos y beneficios, y que ya cuenta con 300.000 usuarios. La app no reemplaza al playero de la estación de servicio ni tampoco es su finalidad. Su puesta en marcha generó empleo genuino, aunque en compañías o actividades en las que la sindicalización es mínima.

Así nació el interés de Moyano en poner un pie en las multinacionales dedicadas a la industria del software al apadrinar en 2012 el surgimiento de la Unión Informática (UI), un gremio que cuenta con la simple inscripción y que se forjó a partir de un conflicto en IBM. La UI tiene hoy 1000 afiliados y ubicó delegados propios en casi todos los gigantes del software radicados en el país. No logró aún penetrar en Mercado Libre, en cuya planta de logística manda la Unión de Carga y Descarga a partir de un retoque a medida del convenio colectivo, cuya reforma fue habilitada por Sica y objetada por Moyano.

Tarde o temprano, Alberto Fernández deberá mediar en la pulseada entre Moyano y Galperin por el encuadramiento en los centros de logística. El presidente electo ya fijó una postura: "Lo que sea por vía convencional es una decisión de las empresas y los trabajadores. Lo que no quiero es poner reglas generales de flexibilización", sentó posición sobre lo que él llama la "uberización" de las relaciones laborales.

miércoles, 13 de noviembre de 2019

CÓMO DARLE ORDEN A NUESTRAS LECTURAS DIGITALES


Martina Rua. PARA LA NACION. 9 de noviembre de 2019 

Hace unos días se cumplieron 50 años de la creación de Internet, esa ventana al mundo que puso la información global al alcance de un par de clics. Tener acceso a videos, notas, fotos, artículos útiles para nuestro trabajo, películas o redes sociales es sumamente fácil. Ahora, que no se pierdan dentro de las 36 pestañas de la compu abiertas, ventanas superpuestas del navegador, cientos de chats, fotos y links ya es otro tema más complejo.

La escena se repite: estás en el colectivo mirando Twitter y ves que tu revista favorita publicó una historia larga e interesante, arrancás por los primeros párrafos, pero llega el momento de bajar. ¿Cómo ordenar esa masa que crece sin pausa de cosas interesantes que queremos leer "cuando tengamos tiempo"?

Recetas universales no hay, como para todo lo relativo a la productividad, pero hay un mix de opciones para que pruebes y mezcles como mejor te resulte.

Vamos desde las más "pro" hasta las más caseras. Sé que somos muchos los nostálgicos que seguimos extrañando al agregador de noticias (RSS) Google Reader, una herramienta que nos organizó allá por 2005 cuando todavía estábamos sorprendidos de la cantidad de fuentes que nos permitía conocer la web.

Si bien las aplicaciones se multiplicaron, voy a proponerles las más usadas y las que sobreviven en mi celular sin que las borre, aunque no las use de manera metódica.

Pocket es una gran opción. Es una app y también una extensión que se puede agregar al navegador, permite guardar todo tipo de links, subrayar lo que más nos interesa y poner etiquetas por temática. Además, funciona como red social ya que podemos seguir a otros usuarios para ver sus lecturas, al mismo tiempo que pueden seguir nuestros videos y artículos guardados.

Otras opciones muy similares, pero sin ser red social son Instapaper, Readability o Paperspan, todas con un diseño simple e intuitivo donde las imágenes nos ayudan a encontrar rápidamente lo que guardamos.

Dentro de las redes sociales, la que por su naturaleza es ideal para conocer y seleccionar información es Twitter. Luego de años de usar el botón de "me gusta" para guardar tuits para más tarde, desde hace algunos años existe la opción "elementos guardados" o "bookmarks" para recopilar todo lo que quieras leer luego.

Por mi trabajo, Twitter es una de mis principales fuentes de acceso a personas e instituciones que me interesan, por lo que uso muchísimo esta opción a la hora de intentar ordenar mis lecturas digitales.

Otra casera, pera infalible es la de mandarnos mails a nosotros mismos. Levante la mano el que se mandó un correo, le vibró el teléfono y fue a la casilla a ver qué había llegado. Vamos, no me dejen sola. En este momento de los 58 mails sin leer de mi casilla tengo 18 que me los "auto mandé". No me juzguen.

Otra que hago mucho es tomar capturas de pantalla, pero esto requiere luego ir a sitio de donde las tomé y hacer clic, por lo que implica más pasos que copiar los links. Ahora mismo tengo 400 capturas de pantalla en el celu. Sí, júzguenme.

En ascenso
Pero la estrella del momento para el soliloquio digital es WhatsApp y los grupos "con nosotros mismos". Ajá, a esto hemos llegado. Para tenerlo, armás un grupo de dos personas y luego quitás al "intruso" y te quedás charlando con vos mismo. Avisale al otro así no piensa que te atacaron los malos modales.

Una vez solos, empieza la auto conversación, elegí una foto y un nombre y recordá que verás ese contacto todos los días. Poner una frase cómica y alentadora es la mejor opción.

Hice la consulta en Twitter para conocer los más originales y de 300 respuestas elegí un par para ustedes. La imagen más usada es la del hombre araña por duplicado señalándose mutuamente. Los mejores nombres: "Sigo acá", "Yo-Ismo", "Dory", "Yo-yo", "I me mine", "El diván", "FMI (for my information)", "Gemelo Malvado", "Me, Myself and I", "Mrs Hyde", "Asuntos internos", entre otras locuras. Me reí fuerte con muchos.

La información a la que podemos acceder no parará de crecer, llegará de cada vez más plataformas y con más formatos. Poder priorizar la información, elegirla y curarla según nuestros intereses o necesidades laborales es un trabajo de artesano que, como tal, lleva un período de adquisición de hábitos, pruebas y contrapruebas hasta encontrar el mejor mix de herramientas para leer, mirar o escuchar los contenidos de la mejor manera posible.

Sonido recomendado para leer esta columna: "Ceremony", de New Order.

LA INTELIGENCIA ARTIFICIAL. UN DESARROLLO IMPARABLE QUE LO CAMBIARÁ TODO


Los sistemas de IA crecen a una velocidad impensada y van camino de modificar cada espacio de la interacción humana; hay voces de alerta sobre sus riesgos

La llamada fue en marzo de este año. La voz en el teléfono, que hablaba en inglés con leve acento alemán, sonaba urgente. Un alto directivo de una compañía británica escuchó las instrucciones de su socio germano que le decía que debía enviarle cerca de 250.000 dólares a un proveedor húngaro, algo casi de rutina. El inglés tomó nota de los datos bancarios y esa misma jornada hizo la transferencia. Sólo después se enteraría de que no había sido un ser humano quien la había dado la orden: el ejecutivo británico había sido la primera víctima reportada de una estafa hecha mediante Inteligencia Artificial (IA). Los estafadores se las ingeniaron para que un sistema diera con el tono exacto del ejecutivo alemán, previamente grabado, y ejecutaron el plan a la perfección. Luego hubo otras llamadas que pedían una segunda transferencia, pero los estafados sospecharon y comenzó la indagación. El dinero fue de la cuenta húngara a una cuenta mexicana y luego se perdió de vista (la información no recoge datos más precisos porque los dio a conocer Euler Hermes Group, la firma aseguradora que tuvo que hacerse cargo de la onerosa eventualidad).

Si sirve para hacer trampa, sirve para la vida real, podría decirse. La IA va en camino de dar sustento y modificar casi cada espacio de la interacción humana, desde los sistemas de salud (cuándo y dónde será la próxima epidemia de dengue o qué niño tiene más posibilidades de sufrir malnutrición) hasta la producción agropecuaria (en qué momento se debe sembrar), pasando por la posibilidad de generar voces y videos de personas que pueden pasar por reales incluso a ojos y oídos entrenados, como se vio en el caso de la estafa empresarial. Es decir, promesas a la vez que riesgos.

Lo que primero salta a la vista es la enorme repercusión económica que tendrá: el PBI global crecerá 14% hacia 2030 solo por la incorporación de la IA, según un informe dePricewaterhour seco opers. Es decir, un aumento de más de 15 trillones de dólares, sobre todo en los países ya desarrollados, aunque también una parte quedará para América Latina (el 5%; medio trillón). El impulso de la inteligencia artificial también eliminará trabajos, aunque no tantos según este informe, y creará otros nuevos. Asalariados del mundo, sed dinámicos.

“Es un campo gigante que está sin techo por ahora. Se puede aplicar en casi todas las áreas de la vida. En Estados Unidos y Europa cada empresa, aunque sea una pyme, está pensando en tener un departamento de análisis de datos. En algún punto, es algo que ya pasó en la historia; por ejemplo, cuando empezó a ser ‘obligatorio’ tener contadores para analizar los balances. Ahora es lo mismo, pero más sofisticado, con gente muy capacitada”, dice Pablo Riera, investigador del laboratorio de inteligencia artificial aplicada del Departamento de Computación de la Facultad de Ciencias Exactas (Universidad de Buenos Aires).

Pero, antes de avanzar: ¿de qué hablamos cuando hablamos de IA? La respuesta corta es que se trata de una mezcla de sistemas sofisticados, big data y machine learning que toman datos del ambiente. No solo ejecutan una orden prevista, como el software clásico, sino que –esta es la clave– los sistemas son capaces de aprender y de usar enormes cantidades de datos para saber dónde se falló anteriormente y actuar en consecuencia. No son los robots con conciencia que imaginó la ciencia ficción clásica, pero es un paso más en ese sentido.

Se conforma así un escenario que despierta miles de preguntas e incógnitas de todo tipo. ¿Cómo se modificará el debate público y cómo se dará validez a declaraciones y puntos de vista que pueden ser falsamente elaborados? ¿Qué pasa con la administración burocrática del Estado (papeleríos varios)? ¿Y las pruebas judiciales? ¿Falta mucho para que alguna personalidad en apuros diga “no fui yo, eso fue deep fake” (algo que le hubiera resultado útil a la primera dama chilena, por ejemplo)?

Para Riera, el alerta es importante pero no es tan grave; solo resta acostumbrarse, como lo hicimos a la computadora personal primero y a los teléfonos inteligentes después; una secuencia similar a la que llevaría de los carteristas vulgares a los robots que se hacen pasar por ejecutivos alemanes. “Es posible que se puedan generar anticuerpos, sobre todo si uno ve cómo se propagan las noticias falsas, por ejemplo. Hoy, por lo general, quienes caen en la trampa son personas mayores, porque no había fake news en su época; ellos no tienen ese aprendizaje”, explica Riera, que es doctor en física e investiga sistemas de redes neuronales que buscan detectar emociones en el habla.

La cuestión es la velocidad. Se ha dicho muchas veces, pero conviene repetirlo: no solo ocurren cambios drásticos en lo tecnológico y social, sino que también la velocidad a la que ocurren está crecientemente incrementada. ¿Alcanzará para que los seres humanos nos adaptemos a las nuevas tecnologías? ¿O se terminarán adaptando solo los más aptos? (De todos modos, la adaptación nunca es total o masiva, como puede verse en las luchas infructuosas de muchos usuarios contra una tecnología relativamente menor y vetusta como los cajeros automáticos).

Cuando el sistema de IA bautizado María –creado para una empresa financiera que otorga pequeños créditos en Perú a través de mensajes de Whatsapp– leyó por primera vez que un cliente decía “estoy chihuán” quedó desconcertado, casi como cualquier lector no peruano, y lo dejó pasar sin actuar. El sistema –hecho por la plataforma de IA Watson de IBM– no pudo identificar a qué hacía referencia la frase, y por ende no podía responder. Pero, como la virtud de la IA es aprender y está supervisada por humanos (en este caso, expertos de Perú), enseguida se superó la brecha: estar chihuán significa estar sin dinero y la expresión alude a una congrelo sista de ese apellido (Leyla Chihuán), cuya queja por su falta de efectivo se hizo popular y pasó al lenguaje cotidiano. Desde ese momento, cuando María detecta que un potencial cliente está chihuán, le ofrece dinero.

La historia la cuenta Leonardo González Barceló, director de Hybrid Cloud en IBM Latinoamérica, como ejemplo tanto de la capacidad de estar atento a neologismos, como del hecho de que sigue siendo imprescindible la supervisión humana, por lo menos durante un tiempo más (cuánto, es uno de los terrenos de discusión). Asimismo, esto sería indicio de que la IA podría impulsar la creación de puestos de trabajo en proporción similar a los que se destruyan por su causa, tal como sucedió en toda modificación tecnológica desde la aparición de la agricultura hace unos diez mil años.

Pero hay especialistas que están más alertas ante las posibles consecuencias de este desarrollo tecnológico. Una de ellas es Marcela Orbiscay, integrante del Grupo de Investigación y Desarrollo en Tecnologías de la Información y las Comunicaciones (Facultad Regional Mendoza, Universidad Tecnológica Nacional). “La IA con capacidad de procesar mucha información por primera vez pone en juego los trabajos de los oficinistas, abogados, agentes de bolsas de comercio, y muchas otras áreas. A diferencia de la revolución industrial (que fue una revolución analógica), esta revolución digital es mucho más rápida y tiene el potencial de afectar muchos más puestos de trabajo. Algunos ejemplos son empresas como Google que, apoyada en la IA, con pocos empleados, puede dar servicios a toda la humanidad, a la vez que también florece una nueva economía de plataforma”, dice. Para Orbiscay, también integrante de INFOLAB (Ianigla/conicet), el auge de la IA se debe al aumento en más de cien veces de la potencia de procesamiento, al aumento en más de cien veces de los de datos disponibles y al aumento en más de cien veces de los algoritmos matemáticos.

“Todo esto hace que la IA sea un millón de veces más potente de lo que era hace poco tiempo, y este aumento es lo que rápidamente nos supera en varios aspectos, ya que, como seres biológicos, los humanos tardamos mucho más tiempo en adaptarnos. Nos cuesta entender su real impacto y por lo tanto no sabemos cómo legislarla. Esto se complica aún más, ya que como especie, nuestra ética y valores difieren de acuerdo a nuestra cultura. Es por eso que existen proyectos como The Moral Machine Experiment, del MIT (en Boston, Estados Unidos), que es una plataforma para reunir una perspectiva humana sobre las decisiones morales tomadas por la inteligencia artificial”.

Además de las estafas y la posible distorsión del discurso público, hay otros asuntos relacionados con la IA que requieren cuidado y tienen que ver con los denominados sesgos. Al igual que en aquellos viejos silogismos que se enseñaban en las escuelas secundarias, el razonamiento de la máquina puede ser correcto, pero si la información introducida en las premisas es falsa, el resultado también lo será. Es decir, si los sistemas que aprenden reciben información sesgada de base, también lo será el resultado al que arriben.

“Cuando uno ingresa datos a un sistema de IA lo hace con datos que son construidos por seres humanos. Si tus datos son malos o tienen sesgos (la visión característica de hombres blancos americanos, por ejemplo), el sistema replicará la misma manera de ver las cosas, sea para contratar gente o para procesar causas judiciales”, dice riera. Pero agrega que se trata de un defecto que puede enmendarse: solo hay que ingresar al programa mejores datos, datos imparciales, o con un sesgo ampliado. Incluso existen técnicas que permiten que el sistema se dé cuenta de que algo está mal y genere sus propios mecanismos para predecir de manera más acorde.

Este un asunto que está atacado de frente por la industria, pero del que no se pueden hacer pronósticos, como explica González Barceló: “En los últimos tres años he visto tanto cambio y tan rápido, que es muy difícil pronosticar qué pasará en diez. Se da en seis meses la adopción de nuevas tecnologías que antes llevaban seis años. Es tan acelerado el proceso, que nos lleva a usos que ni siquiera pensábamos que iban a existir. Siempre con la intención de extender las capacidades del ser humano”.

Entonces, ¿debemos preocuparnos por estos desarrollos en los términos de la ciencia ficción catastrofista o de las predicciones del físico Stephen Hawking en el sentido de que la IA es una amenaza para la humanidad? Todo indica que no, al menos en el corto plazo. Sin embargo, los expertos evalúan la catástrofe como posibilidad. Por ejemplo, en el Future of Life Institute, en Boston, reconocen que la IA tiene el potencial de causar daños a la humanidad de manera intencional o no intencional. Los daños pueden ocurrir si la IA es programada para hacer algo voluntariamente devastador (drones, armas autónomas), o como consecuencia no querida de alguna iniciativa bienintencionada (la discutida geoingeniería contra el cambio climático).

“Como no sabemos qué puede salir mal en el camino a esta superinteligencia, debemos pensar en este asunto en detalle. La base de la ingeniería segura es mirar qué puede no funcionar, para prevenirlo. Hasta ahora, lo único que se buscó con la IA fue hacerla más poderosa, sin preocuparse por dirigirla. Ya es hora de cambiar ese enfoque, para evitar males mayores”, advirtió Max Tegmark, uno de los integrantes del Future Life Institute, en una entrevista con la revista especializada IEEE Spectrum.

Además, usar los recursos de la IA será cada vez más fácil. “No hace falta estar doctorado en matemática para hacerlo”, aseguró en un artículo publicado por el Wall Street Journal Bobby Filar, director de data science en una empresa de ciberseguridad llamada Endgame. Y, respecto a la posibilidad de “hackear” voces y usarlas para dar instrucciones equívocas, como en la historia citada al comienzo de esta nota, agregó: “No se puede estar en silencio todo el tiempo; por eso es que estaremos expuestos a que se use en nuestra contra información que dimos involuntariamente”.

Si alguna vez la IA perteneció al terreno de las hipótesis de la literatura de anticipación, hoy aparece a la hora de recomendarnos amistades en las redes sociales, la música que querríamos escuchar, las series que deberíamos ver, las compras online, las interacciones con los celulares. El listado sigue: los autos autoconducidos, la exploración espacial, y mucho más. Hay que reconocer que vivimos en ese futuro anticipado. Pero no todo está escrito: es en este momento en que hay que decidir, además, si se puede transformar en ciencia ficción catastrofista o no.
Fuente: La Nación

TRANSHUMANISMO: EL HOMBRE AUMENTADO


Agustín Casalia. PARA LA NACION.
Ilusiones y riesgos de un movimiento que apela a la tecnología para desafiar los límites de nuestra condición.
9 de noviembre de 2019 

El transhumanismo es un movimiento conformado por científicos, futurólogos y filósofos que concibe lo humano como una transición. Mediante las diferentes tecnologías hoy existentes y en continuo desarrollo -afirman sus postulados- el hombre podrá ir superando los límites que aún nos impiden alcanzar nuestro más grande potencial. Sus ideas dan forma a una nueva mitología que anuncia la inminencia de la inmortalidad, la salud total, la juventud eterna, un nuevo mundo generosamente al alcance de todos, aunque bajo el fantasma del control más absoluto, de una puesta en disposición generalizada.

¿Qué hacer frente a la extensión del dominio y la avidez de control de las prácticas biotecnológicas actuales? ¿Acaso la respuesta ética debe imponerse como la única opción viable?

Hace unos años, la Universidad Popular de Grenoble me invitó a una mesa redonda para abordar los aspectos filosóficos de la temática transhumanista. Compartí el panel con una médica investigadora en genética y un reconocido neuro-oncólogo, director de una clínica de punta. Terminadas las conferencias, el reconocido médico me contó que los altos mandos de la fuerza aérea francesa lo habían convocado a una reunión. Querían saber si era posible conectar el cerebro del piloto al comando del avión: muchas veces, el proceso humano de toma de decisiones no es lo suficientemente veloz como para esquivar un determinado ataque; sería bien distinto si la nave pudiera responder automáticamente en el mismo momento en que el ojo del piloto ve llegar el misil. Se puede, les respondió el médico. Pero para eso hay que intervenir en el cerebro sano de un ser humano sano y sus principios éticos no se lo permitían. Gracias a su práctica profesional, conocía bien el enorme poder de las NBIC (sigla que engloba nanotecnologías, biotecnologías, informática y ciencias cognitivas), y se había prometido que nunca modificaría ni intervendría en el cerebro sano de una persona.

Ante el transhumanismo, se presentan diferentes posturas. Hay quienes adscriben a él y, esperanzados, dan testimonio de las bondades del programa. ¿Quién no querría vivir mejor y hasta infinitamente, con un poder de disponibilidad ilimitado, donde deseo y realidad acabaran identificándose?

Otros en cambio se oponen esgrimiendo razones de orden ético. Como el médico de nuestra anécdota, que combate cotidianamente contra los gigantes de Silicon Valley y todo su dispositivo: científicos y especialistas con salarios de deportista con renombre mundial, un ejército de juristas siempre listos y voceros actuando en el seno mismo de los mass-media más influyentes.

Tal vez no se trate ni de plegarse ingenuamente al fanatismo tecnológico reinante ni de rechazarlo por razones éticas. Más que nunca se trata de pensar qué es lo que está en juego aquí. Apenas uno se pone a deconstruir las propuestas, las palabras y las conductas de los gurúes del transhumanismo, salta a la vista que sus presupuestos teóricos y discursivos son una continuación de las premisas fundadoras del Occidente moderno, una radicalización dentro de la misma línea humanista, una concreción a ultranza de sus paradigmas.

La modernidad supone el desarrollo progresivo de un sistema racional de mejoras. Esto es, una Historia lineal, sucesiva, que contiene la idea de progreso de la civilización, así como la de la emancipación de un hombre pensado como autónomo y racional, capaz de mejorarse a sí mismo gracias a la educación y la autorreflexión. La realización de este ideal hoy se lleva a cabo en el seno de los nuevos templos de la modernidad, los laboratorios especializados en biotecnología. A pesar de esto, muchos pensadores intentan ponerle límites a este movimiento y lo cuestionan invocando esos mismos presupuestos modernos, que conciben lo real y al hombre mismo como algo totalmente mensurable. Se les escapa que, en este sentido, el transhumanismo es más modernidad. Hipermodernidad.

El estado de cosas actual, sin embargo, encierra una oportunidad: la de vérnosla, ahora necesariamente, con lo que nos define y proyecta. Nos encontramos frente a un espejo en el que estamos obligados a mirarnos, con la posibilidad de una vez por todas de confrontar los presupuestos de nuestra tradición a partir de las capacidades técnicas actuales y sus concreciones más radicales.

Como en un juego oscilante entre los supuestos transhumanos y un modo de pensar existencial, por ejemplo nos podemos preguntar: ¿el hombre es substancia, tiene un fondo en su interior que define su naturaleza o es existente, poder ser, apertura y proyecto? ¿La muerte es un accidente más entre otros muchos o acaso el morir es condición de toda vida humana? ¿Los límites se oponen a nosotros desde fuera o, parafraseando a los griegos, me informan, me configuran y a partir de ellos soy?

Estas son algunas de las cuestiones que se esconden allí donde por lo general solo se despierta el temor a las máquinas. Nuestro problema no es el despliegue de los robots o el de los ciborgs, sino más bien el pasar por alto la esencia provocadora de la técnica moderna en la que estamos inmersos.

Sigue resultándome curioso, pero sin duda esperanzador, que las personas que asisten a mis conferencias encuentren una cierta serenidad cuando digo que la posibilidad de morir es la más auténtica de todas, por ser ella la única entre todas las demás que, en la medida en que existimos, permanece siempre necesariamente abierta como posibilidad. Y con seguridad es la más decisiva, ya que el hecho de que sea una posibilidad permite que las demás posibilidades puedan presentarse como tales. Dicho de otra manera, si morir no fuera una posibilidad, ninguna otra podría serlo, en todo caso respecto del ser humano que existe. Creer que podemos hacer algo con esto, que no debemos asumir esta dimensión de lo humano, sino superarla o neutralizarla con inmortalidades ilusorias, que podemos intervenir y transformar esa dimensión en otra cosa, es la expresión cabal del miedo más profundo: el de la muerte.

Filósofo DEA UNED Madrid, licenciado en Derecho y Ciencias Políticas (UCA)

domingo, 10 de noviembre de 2019

EL FUTURO YA LLEGÓ. PORQUÉ LOS LÍDERES DEBERÍAN PENSAR COMO AUTORES DE CIENCIA FICCIÓN

La ciencia ficción aporta una mirada diferente sobre la evolución de la sociedad 
Crédito: Shutterstock
La literatura fantástica ayuda a modificar los marcos de referencia y les brinda herramientas a las organizaciones para adaptarse al cambio
Eugenio Andrés Marchiori. 9 de noviembre de 2019 

"Nuestra vida en el siglo XXI, más que cualquier cosa, va a pasar por las nuevas tecnologías, en especial la inteligencia artificial (IA) y la biotecnología. Para la mayoría de las personas la comprensión de estas tecnologías y de su potencial, para bien o para mal, viene de la ciencia ficción? Por eso creo que es el género artístico más importante de la actualidad y también debe ser el más responsable", decía en una entrevista Yuval Noah Harari, autor, entre otras obras, del libro 21 lecciones para el siglo XXI.

Son incontables las oportunidades en las que la ciencia ficción (CF) y el género fantástico se anticiparon a adelantos que luego serían parte de lo cotidiano. En 1818, Mary Shelley, autora de Frankenstein -considerada por muchos la primera obra de CF-, se anticipó a los trasplantes de órganos; en Un mundo feliz, Aldoux Huxley imaginó pastillas capaces de regular los estados de ánimo; en 1984, la célebre distopía de George Orwell, el autor introdujo al Gran Hermano y a la posibilidad del control masivo y omnisciente; en 2001: Una odisea espacial, Arthur C. Clarke muestra a los astronautas usando iPads y a HAL, una computadora inteligente; el mismo autor también predijo la posibilidad de la comunicación instantánea entre las personas sin importar dónde se encontraran; algo similar ocurre en la serie de culto Star Trek, en la que sus personajes usan teléfonos celulares; Julio Verne previó submarinos y viajes a la Luna. Los ejemplos de historias basadas en tecnologías que se anticiparon décadas a su aparición en el mundo real se podrían enumerar de manera indefinida.

Aunque solía ser solo una fuente de esparcimiento, hoy las grandes empresas se están interesando en el género. Compañías como Visa, Ford, Intel, Colgate, Pepsico, Samsung, Fox y muchas otras contratan a autores de CF para que imaginen su futuro, como si se tratara de una historia fantástica. Incluso lo hacen organismos militares como la OTAN y la Marina norteamericana. ¿Qué lleva a las organizaciones a contratar novelistas para que los ayuden a pensar en su futuro? Ari Popper lo llama "visualización corporativa".

Hace algunos años, Popper era el aburrido presidente de una empresa de investigación de mercado. Autor aficionado, se enroló en un curso de redacción de CF. Aunque estaba seguro de que no iba a poder ganar lo suficiente para vivir escribiendo novelas, la experiencia le produjo una epifanía. Popper pensó que, considerando que las empresas suelen gastar grandes cantidades de dinero tratando de predecir cómo cambiará el mundo, nada mejor que la CF para colaborar en esa tarea. Al poco tiempo abandonó su trabajo y fundó SciFutures, una empresa de consultoría que se dedica a escribir "prototipos de SF" para sus clientes. Para hacerlo, cuentan con una red de más de cien autores dispersos por todo el mundo.

La idea es tomar tendencias tecnológicas disruptivas como la IA, la realidad virtual, los hogares inteligentes, la robótica, los drones, los mercados sin intermediarios y otras, e imaginar historias positivas y novedosas para sus clientes basadas en estas. Para Popper, la práctica es útil por varios motivos:

Aporta claridad a la complejidad: para los que no son especialistas, es difícil abarcar la complejidad de las tecnologías emergentes. Creando historias se vuelven más cercanas, se personalizan y permiten tener una conexión emocional.
Genera propiedad intelectual: al crear una historia, nace un caso de uso específico de un aspecto de la tecnología.
Señala una visión de hasta dónde puede llegar la organización: la innovación disruptiva no es una línea recta, sino que es un proceso exponencial. SciFutures busca sacar a sus clientes de la linealidad.
La creación se realiza de manera colaborativa con los clientes. Popper relata el caso de una empresa de chocolate a la que le interesaba imaginar el futuro de su industria y relacionarlo con las impresoras 3D. El proceso creativo se realizó en varios pasos:
El cliente proporcionó información sobre su negocio.
Se hizo un taller con el cliente para cocrear historias futuristas.
Surgieron relatos utópicos y distópicos que fueron el material en bruto.
Se hizo llegar ese material a algo de una centena de escritores a nivel global para que escribieran cuentos en los que el futuro del chocolate y de las impresoras 3D fueran significativo.
Emergieron diferentes futuros posibles y se seleccionaron aquellos que mejor podrían ajustarse a un plan estratégico innovador.
SciFutures entregó como producto videos, comics o experiencias de realidad virtual para contarle al cliente cómo podría ser el consumo de chocolate empleando impresoras 3D.

La CF no es útil por ser predictiva, sino porque ayuda a cambiar el marco de referencia sobre el mundo. Así crea un lugar para cuestionar los modelos mentales y lleva a imaginar escenarios alternativos a aquellos que se encuentran arraigados en la memoria. Es probable que empresas como Kodak (irónicamente, sus técnicos fueron los inventores de la fotografía digital) o Blockbuster no hubieran desaparecido de haber permanecido abiertas a la fantasía.

La técnica de visualización corporativa (clásica en el caso de la inteligencia militar) es similar a la de escenarios empleada por Shell que le sirvió para predecir la crisis petrolera durante la década del '70. La idea era combinar hechos conocidos sobre el futuro -como tendencias demográficas, geografía, información sobre industrias, perspectivas económicas, opiniones de expertos y otras fuentes- para generar escenarios posibles. Para cada alternativa seleccionada, Shell tenía preparada una respuesta estratégica, gracias a lo cual tuvo una capacidad de reacción muy superior a la de sus competidores.

Los líderes empresarios tienen que estar atentos a los desafíos que la nuevas tecnologías disruptivas suponen para sus empresas. Deben ser capaces de cumplir tres condiciones básicas para el cambio. La primera es encontrar a las personas especiales en la empresa capaces de ir contra la corriente; la segunda es servir de escudo entre esas personas innovadoras y la resistencia natural de la organización; la última -y la más importante-, deben ser capaces de crear y de contar historias que movilicen a la organización.

El autor es profesor de la Escuela de Negocios de UTDT. Por: Eugenio Andrés Marchiori

domingo, 3 de noviembre de 2019

BIENVENIDOS AL ANTROPOCENO. LA ÚLTIMA ERA GEOLÓGICA?


La Tierra se está transformando aceleradamente por la actividad humana y ya hay científicos que sostienen que entramos en un nuevo estadio con altas chances de ser el final. La Tierra se está transformando aceleradamente por la actividad humana y ya hay científicos que sostienen que entramos en un nuevo estadio con altas chances de ser el final
Manuel Torino. 2 de noviembre de 2019 

Una bolsa de plástico puede tardar más de 500 años en degradarse. Una pila tirada a la basura tiene componentes que seguirán siendo nocivos 1000 años después. Una botella de vidrio necesita 4000 años para desaparecer. Y el polvo radiactivo de las explosiones nucleares podrá ser detectado dentro de 100.000 años.

Indelebles, las marcas de la actividad humana sobre la Tierra parecen estar adquiriendo relevancia geológica. Así como hoy podemos estudiar a los dinosaurios por sus huesos, en un futuro posapocalíptico se podría conocer más sobre el malogrado Homo sapiens por lo que algunos científicos llaman "tecnofósiles". Desde un tarjeta de crédito hasta un cepillo de dientes podrán ser parte del registro geológico de nuestra época.

No es el único aporte de la geología al debate medioambiental. El impacto de la humanidad sobre el planeta se aceleró tanto en estas últimas décadas que muchos especialistas sostienen que estamos entrando en un nuevo -¿y final?- estadio: el Antropoceno. Es decir, la época de los humanos.

"Ciertamente, el ser humano está dejando marcas geológicas, considerando el efecto de actividades como la agricultura a gran escala, la minería o la acumulación de determinadas sustancias que producimos solo nosotros, como los plásticos. Son tremendas modificaciones del ambiente", opina el prestigioso conservacionista Claudio Campagna, Ph.D. en Biología por la Universidad de California y miembro de la Wildlife Conservation Society. Y agrega: "Hablamos de una nueva época geológica porque no estamos dejando prácticamente elemento de la naturaleza sin modificar".

Un repaso
¿Cómo era esto de las eras geológicas? Va un repaso de geografía: los 4600 millones de años del planeta pueden analizarse a través de las capas concéntricas que forman la geosfera. Para simplificar la inmensa cantidad de información, los científicos definieron los períodos en eras, períodos y épocas geológicas.

Durante la mayor parte de este tiempo de la historia de la Tierra, el clima no ha sido precisamente acogedor para los seres humanos. Entre grandes glaciaciones y lluvias de meteoritos, hace apenas unos 10.000 años que disfrutamos de condiciones climáticas estables. Estos milenios de bonanza se llaman Holoceno. De ser creyentes, los científicos describirían esta época como un milagro geológico, un equilibrio que supone una combinación perfecta de dióxido de carbono en la atmósfera, de acidez justa en los océanos, de hielo en los polos y de bosques en el Ecuador, condiciones necesarias para el desarrollo de la vida humana.

Todos los logros de la humanidad, sus evoluciones y sus revoluciones -agrícola, industrial, tecnológica-, se dieron durante el Holoceno. Pero su mayor marca podría ser justamente forzar un cambio de época. Según los científicos, la actividad humana un siglo atrás era insignificante en términos ambientales. Hoy, en cambio, nos hemos convertido en una poderosa fuerza geológica a escala planetaria. A punto tal que muchos de los indicadores ambientales que definen los límites del Holoceno están siendo superados. ¿Llegó la hora de dar por terminada la confortable época actual y buscarle un nombre que refleje el impacto humano?

"Para algunos, siempre han existido grandes cambios y extinciones en escalas temporales amplias. Para otros, el hecho de que científicos de todas las disciplinas, así como la sociedad en sentido amplio, estén pensando el mundo desde el Antropoceno hace que los geólogos deban repensar su disciplina para poder responder a las necesidades y preocupaciones sociales y ecológicas actuales", sostiene Mara Dicenta, antropóloga ambiental e investigadora que realiza su trabajo de campo en Tierra del Fuego.

La discusión sobre el Antropoceno lleva sus años -el concepto fue acuñado por el premio Nobel de Química holandés Paul Crutzen en el año 2000-, pero se reeditó gracias al inquietante documental Anthropocene: The Human Epoch, que por estos días sacude conciencias en los cines de los Estados Unidos.

La sola posibilidad de poder estar entrando en una inexplorada época geológica pone en perspectiva la dimensión de la crisis ambiental. Mientras por aquí las elecciones, y en otros países las manifestaciones callejeras, sugieren un nuevo orden, un antes y después, el verdadero cambio, quizás el más trascendente de la historia de la humanidad, está teniendo lugar frente a nuestras narices. "La dicotomía entre desarrollo y sustentabilidad es falsa. Sin planeta no hay economía que valga", suele contestar Al Gore, el exvicepresidente estadounidense reconvertido en activista ambiental, cuando le consultan cómo es posible priorizar la agenda medioambiental frente a otros problemas urgentes, como la pobreza, la inflación o las guerras. Ya sea en el Holoceno, en el Antropoceno o en la época geológica que nos depare el futuro, lo importante es entender que no hay planeta B.

El autor es periodista especializado en sustentabilidad y fundador de www.Aconcagua.lat

sábado, 2 de noviembre de 2019

ENROLLABLES, EMOCIONALES O IMPLANTADOS: ASÍ SON LOS CELULARES QUE VIENEN


Los principales cambios llegarán de la mano de nuevos materiales, el avance de la inteligencia artificial y las pantallas flexibles.
Marcelo Bellucci. 30/10/2019. Especial Clarín

Uno de los desafíos que enfrenta el mercado de la telefonía móvil es superar el estancamiento creativo que paraliza a la industria. Desde la vitrina de cualquier casa de electrodomésticos, hoy todos los equipos parecen variaciones a escala de un molde primordial. Sin embargo, algunos fabricantes y universidades están intentando extender las fronteras tecnológicas más allá de los límites establecidos. La suma de estos esfuerzos permite proyectar como será el smartphone del futuro.

Los expertos sostienen que, visto en perspectiva, en los próximos 5 años los teléfonos quizá no sean tan diferentes a como son hoy en día. Sin embargo, se avecinan cambios importantes que pueden alterar su aspecto y uso. Desde la pantalla flexible, el avance de la inteligencia artificial (IA), la introducción de nuevos materiales, hasta conceptos más vanguardistas como implantar el chip en el propio cuerpo o móviles cuánticos.

Y si bien se produjeron avances en la miniaturización del hardware, los teléfonos inteligentes, al menos en su fachada exterior, evolucionan mansamente. El gran paradigma móvil ocurrió 12 años atrás, cuando Steve Jobs presentó el iPhone, el primer sistema táctil que era un reproductor de música y ofrecía acceso a Internet. Si uno compara los modelos actuales con aquel móvil de 2007, los cambios son puramente cosméticos. Pero todo cambia.

Las pantallas plegables ya están próximas a la realidad. Samsung, Huawei y Royole Corporation exhibieron su versión más elemental. Esta primera generación, considerada un prototipo, no son dispositivos maleables que se doblan o retuercen, sino que funcionan como una hoja extensible. Sin embargo, la dificultad para fabricarlas obligó a un posible cambio de orientación.

Mientras se refina la tecnología, la idea que cobra impulso es que en lugar de plegables podrían ser enrollables. Un equipo de investigadores de la Universidad de Queen en Ontario, Canadá, creó MagicScroll, un pergamino táctil y enrollable compuesto por una pantalla touch flexible de 7.5" con resolución a 2K. El mecanismo consta de dos ruedas giratorias en cada extremo que permiten desplazarse.

El sentido de esta innovación es, ampliar o encoger a voluntad el tamaño de la pantalla. Si uno quiere leer un diario, puede convertirlo en una tableta y cuando no se lo necesita más, lo enrosca en el bolsillo.

El avance de la IA en los teléfonos está asociado a los asistentes digitales. El objetivo a corto plazo es adelantarse al usuario en sus decisiones. Un ejemplo cotidiano de este avance lo ofrece Google Maps, que sin que nadie le haya indicado el horario, notifica sobre el caudal de tránsito que espera para ir o volver del trabajo. Pero esto es apenas el principio.

Los teléfonos Huawei, que vienen con un chip exclusivo de IA, están intentando detectar las emociones del usuario a través del reconocimiento facial y el tono de voz. Si el software percibe algún signo de tristeza, intentará escoger música que mejore el estado anímico y filtrará cualquier información negativa.

A mediano plazo, la intención es que uno pueda conversar con estos asistentes como si fuera un yo digital. Así, se le podrán pedir sugerencia sobre el vestuario apropiado para salir a la calle, consejos sobre un conflicto personal y ayuda para tomar una decisión. La voz metalizada comienza a ser remplazada por una modulación humana con cambios de entonación.

Elementos
El verdadero cambio de paradigma no se produce por una innovación tecnológica, sino cuando se introducen nuevos materiales a la cadena de producción. En este sentido, el grafeno es el material que está llamado a cambiar esta era. Sus propiedades electrónicas lo vuelven ideal para crear componentes más rápidos y más confiables para los teléfonos, ya que es fuerte y altamente conductor, pero también, al tener un sólo átomo de espesor, es muy delgado.

Una de sus aplicaciones posibles es en la batería, ya que podría mejorar la capacidad, eficiencia, estabilidad, lograr un mayor almacenamiento de energía y un mejor rendimiento. Samsung registró una patente basada en grafeno que permitía crear baterías capaces de almacenar un 45% más de carga en el mismo espacio que una de litio actual y que podría completar la carga 5 veces más rápido que las actuales.

Otro beneficio para las baterías es que serían muchísimo más seguras. Las de litio utilizan un electrolito líquido que, en contacto con el aire, entran en combustión y hacen que la batería arda y explote. En este caso, el electrolito que se usa es de grafeno, que no arde al contactar con el aire.

Blindaje
En el mundo, al menos unas treinta empresas están avocadas a lograr el primer procesador cuántico, tecnología que promete revolucionar la informática por su capacidad de cálculo extraordinaria. Esto sería posible gracias a un nuevo método de codificar la información que permitirá que esos datos viajen de forma mucho más rápida y segura.

Científicos rusos están probado el teléfono cuántico, capaz de transferir archivos de audio protegidos por criptografía cuántica, una tecnología que garantiza la confidencialidad absoluta. No tanto por el blindaje de protocolos y algoritmos, sino por las propias leyes de la física. ¿Como se logra? La información es transportada por fotones individuales que cambian ante cualquier intento de interceptación de señal.

Incluso, la expansión del 5G podría acelerar la posibilidad de un smartphone cuántico. Como el nuevo equipo requerirá cálculos de alta complejidad, las redes móviles y su bajo tiempo de respuesta ofrecen la posibilidad de procesar toda la información en la nube, para que no se ejecute en el propio teléfono.

En el cuerpo
No hace falta viajar en el tiempo para imaginar que, tarde o temprano, el cuerpo podría convertirse en un receptor móvil. A medida que el hardware se miniaturiza la posibilidad de un implante biológico permanente aumenta.

Actualmente ya hay personas deciden implantar un chip en su mano para guardar información confidencial o abrir puertas o cerraduras que utilizan esta tecnología. El inconveniente es que todavía se precisa una aplicación del teléfono para que funcione como intermediario. Pero se supone que en el futuro eso ya no será necesario.

Para construir esta unidad central de procesamiento (CPU) el equipo dirigido por Martin Fussenegger, profesor de Biotecnología y Bioingeniería en el Departamento de Ciencia e Ingeniería de Biosistemas en ETH Zurich en Basilea, recurrió al sistema CRISPR-Cas9 para trabajar con tantas entradas como se desee en forma de moléculas de ARN. Su próximo objetivo es integrar una estructura de computadora multinúcleo en una célula. "Esto tendría incluso más poder de cómputo que la estructura de doble núcleo actual", sostiene. Aunque usted no lo crea.