Inteligencia artificial: ¿salvación o perdición?
Los autos autónomos, el reconocimiento facial que hace Facebook, los asistentes virtuales (como Alexa, Siri y Cortana, por ejemplo), los drones que detectan plantas enfermas y los robots que llaman a la peluquería para pedir un turno son algunos de los desarrollos más recientes y revolucionarios con los cuales la tecnología nos ha sorprendido. Detrás de todos ellos está la Inteligencia Artificial (IA), uno de los conceptos que aunque se utiliza desde hace más de medio siglo ha vuelto con todo en la actualidad, a tal punto que el gigante Google ha cambiado este año el nombre de su departamento de investigación y desarrollo: ya no se llama más Google Research, ahora es Google AI.
En su sentido más amplio y genérico se suele definir a la IA como a la inteligencia exhibida por las máquinas. Se le atribuye al informático estadounidense John McCarthy la utilización por primera vez del término, al que en 1956 definió como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”. McCarthy también dijo que la IA se relacionaba con la tarea de usar computadoras para entender la inteligencia humana, pero que no debía limitarse a métodos biológicamente observables. Unos años antes, en 1950, Alan Turing había concebido un test para juzgar la inteligencia de una máquina.
Si en los albores de la informática, la IA era casi sinónimo de la misma ciencia de la computación, hoy el concepto se ha refinado un poco más. “Lo que hoy se llama IA es un gran campo que está dividido en dos subdisciplinas: lo que se dio en llamar la IA Simbólica, que fue el paradigma dominante entre los años 50 y los 80, y lo que es Machine Learning, que es lo que vendría a ser el enfoque dominante actual”, dice el sociólogo y magíster en Generación y Análisis de Información Estadística Germán Rosati, quien además coordina el curso de Inteligencia Artificial de Digital House. “¿En qué se diferencian ambas? – prosigue - En cómo plantean y resuelven los problemas. Una forma fácil de pensarlo es imaginarnos un robot que diagnostica enfermedades a partir de los síntomas. La IA Simbólica lo hacía luego de que una persona codificara las reglas, es decir las combinaciones posibles. Machine Learning, en cambio, parte de una lógica medio opuesta: ante un montón de casos con síntomas y diagnósticos infiere la regla a partir de los datos”.
Resolviendo (mejor) los problemas
En tanto fundamento tecnológico, casi no existe área en la que se apliquen sus desarrollos, por lo que sus ventajas son innumerables. Un sistema de IA es capaz de analizar datos en grandes cantidades a través del big data, identificar patrones y tendencias y formular predicciones de forma automática con rapidez y precisión.
Un campo de vital importancia en el que hace un tiempo se viene aplicando con mucha fuerza la IA es la salud. Sin ir demasiado lejos, un equipo de argentinos liderado por el investigador del Conicet y profesor de la Facultad de Ciencias Exactas y Naturales de la UBA Diego Fernández Slezak ganó hace dos años los Research Awards for Latin America de Google por su proyecto “Diagnóstico en una caja: Caracterización computacional de estados mentales”. Lo que Fernández Slezak y el estudiante Facundo Carrillo pensaron es una app para ayudar a los médicos psiquiatras a detectar señales de enfermedades. Para ello se valen del análisis automático del discurso de personas consideradas en riesgo de sufrir un brote psicótico. “Un caso típico es la esquizofrenia. Los médicos tardan mucho en diagnosticarla porque necesitan acumular mucha evidencia en muchas entrevistas. La tecnología puede ayudarlos a detectar esos cambios sutiles en el discurso de los pacientes que revelan un pensamiento alterado”, explicó Fernández Slezak en una entrevista al canal LN. Estos desarrollos en IA se basan en que las computadoras pueden hoy recolectar y analizar grandes volúmenes de datos (que a una persona le podrían llevar más de una vida) y sacar conclusiones a partir de ellos. “Estamos viendo cómo la computadora está generando otro tipo de inteligencia y resolviendo problemas en que los humanos no somos tan buenos”, sintetiza Fernández Slezak.
Además de la salud, la IA también se está empezando a utilizar mucho para detectar fallos en procesos productivos y en las operaciones de las más diversas empresas. En la vida cotidiana, por su parte, se ve en los sistemas de recomendación de servicios como Netflix o en las redes sociales y portales web.
Apocalipsis tomorrow
“Hoy, cuando pensamos en el futuro dentro de 20 años, nos cuesta mucho imaginar qué es lo que va a pasar porque la tecnología está yendo más rápido que nuestra propia imaginación. La tecnología está yendo a una velocidad en donde nosotros ya no nos imaginamos a dónde podemos llegar. Y ahí empiezan a surgir las dudas de hasta dónde está bueno ir, en qué dirección va a ir”, plantea Fernández Slezak en la misma entrevista. Y resume así la otra gran cuestión que surge del desarrollo de la IA: ¿cuáles son los riesgos que ella misma puede generar?
Miradas apocalípticas abundan. Una de las que más suenan es la de Elon Musk, el cofundador de Tesla Motors y Space X, entre otras compañías especializadas en desarrollos tecnológicos. "No paro de hacer sonar las alarmas, pero hasta que la gente no vea robots en la calle matando a otras personas, no saben cómo van a reaccionar porque todavía parece algo muy etéreo", dijo hace un año en una conferencia. Y agregó: "La IA es un extraño caso en el que necesitamos ser proactivos con la regulación y no reactivos. Porque para cuando seamos proactivos con la regulación de la IA, ya podría ser muy tarde". ¿Y cuáles serían esos riesgos? Por ejemplo, computadoras que hoy ya están invirtiendo automáticamente en acciones en base a datos de las bolsas de todo el mundo y que podrían causar una catástrofe económica. O también manipulaciones y fraudes electorales. Algunos advierten que la IA es una excelente herramienta para la cibercriminalidad, que se puede valer de drones y robots con fines delictivos por ejemplo. Hace poco un experimento en el que dos sistemas de IA lograron desarrollar un propio lenguaje que los humanos no podían comprender conmovió al mundo de la tecnología. Menos drástico pero mucho más real y concreto es el sesgo de algunos algoritmos: en 2015 Google Photos confundió a dos afroamericanos y los etiquetó en una imagen como “gorilas”.
Conscientes de estas posibles implicancias, las grandes empresas insisten en el compromiso de hacer un uso “ético” de la IA y dicen estar velando por la seguridad de todos nosotros. “Los desafíos éticos son muy válidos y debemos ser especialmente cuidadosos con ellos. Tenemos un compromiso por el desarrollo de una IA ética, desde nuestro presidente, Satya Nadella, para abajo, estamos comprometidos con ello y tenemos que hacerlo”, dijo en una visita a la Argentina Greg Fuller, director de estrategia de Inteligencia Artificial y Big Data de Microsoft. “Existen tendencias que tenemos que observar cuidadosamente. Elaborar un modelo o algoritmo para trabajar de forma específica en algo está bien, porque estás buscando algo específico. En cambio, si el resultado no es buscado con un propósito, puede ser un problema. Por ejemplo, en reconocimiento facial, existe el desafío de como entrenar a tu plataforma, si de manera completamente no intencional se lo entrena para detectar ciertas características de piel o étnica es posible que se dé algún sesgo. Algunos sistemas de reconocimiento facial no reconocen ciertas características étnicas en rostros, por lo que hay que ser cuidadoso en cómo se la utiliza”, agregó.
Rosati cree que hoy aún no hay grandes riesgos. “Hoy por hoy nosotros todavía le estamos diciendo a las máquinas qué problemas tienen que resolver. Y las máquinas nos superan ampliamente una vez que nosotros le definimos el problema. Todo sistema de IA tiene tres componentes: datos, algoritmos y el conocimiento del problema o del área en el cual se aplica. Esta última etapa todavía no es automatizable. De acá a diez años uno nunca sabe”, concluye.
Fotos: istock