En el año 1968, la película 2001: una odisea del espacio ponía en la pantalla grande uno de los mitos fundantes de cientos de obras de ciencia ficción: HAL 9000, la super computadora, se rebelaba en plena misión a Júpiter e incluso se deshacía de cinco de los seis miembros de la tripulación. Medio siglo después, el ChatGPT y el concepto de Inteligencia Artificial (IA) se presentan como émulos de aquello que parecía reservado a la ficción literaria y cinematográfica, planteando cuestiones que —como en tantos otros campos de la vida humana— será preciso responder desde la ética y el sentido común.

Ezequiel Scordamaglia es licenciado en Sistemas por la Universidad Nacional de Lanús. Además de trabajar como desarrollador, es docente investigador de la UNLa y cursa el posgrado en Inteligencia Artificial en la facultad de Ingeniería de la Universidad de Buenos Aires. “El ChatGPT es una herramienta que nos da un montón de soluciones: nos ayuda a encontrar patrones, a hallar curas y soluciones a problemáticas más complejas o a decisiones que nos cuesta tomar —dice el licenciado Scordamaglia—. Yo lo veo por el lado de que vienen a solucionar un montón de cosas. Espero que a medida que vaya pasando el tiempo cada uno encuentre su lugar, la gente empiece a capacitarse o a saber cómo utilizarlas, y las inteligencias empiecen a solucionar algunos problemas que hoy en día son muy complicados de resolver”.

¿Qué es una Inteligencia Artificial? ¿Cómo se construye?

La IA es un software, un programa computacional, que aprende de datos que se le dan y a partir de ahí funciona para hacer tareas específicas, utilizando una especie de razonamiento o inteligencia. Hasta hace poco se usaba en tareas específicas: era muy buena para hacer aquello para lo cual se la entrenaba, pero no tenía la capacidad de hacer otras cosas. Pero hace poco tiempo empezaron a surgir otras inteligencias, a las que se les llama “AGI” —Inteligencias Artificiales Generales—, que pueden hacer otras cosas además de aquellas para las cuales fueron entrenadas. El caso más conocido es el ChatGPT que hoy está en boca de todos. Originalmente fue una inteligencia entrenada para dar respuestas lo más parecidas posible a las humanas y mantener una conversación, y a partir de ahí se empezó a usar para resumir, traducir, generar pedazos de algoritmos de computación, dejando de utilizarse para una tarea específica.

Hay concursos de literatura cuyas bases especifican que los textos presentados no pueden haber sido escritos utilizando IA. ¿Es posible que una Inteligencia Artificial haga tareas creativas?

La IA se basa, o aprende, de un set de datos. Algo así como lo que sería para un usuario leer, leer y leer artículos, enciclopedias, páginas web, redes sociales, para saber cómo opina la gente y cómo habla. No memoriza: no le puedo pedir por ejemplo “decime la primera página de un libro de Borges”, pero sí le puedo pedir “escribime un texto como si lo escribiera Borges”. La IA trata de generalizar el conocimiento, que es un poco lo que hacemos nosotros, los humanos: tratar de entender y de sacar las relaciones entre las cosas.

¿En qué se la está aplicando en este momento?

La respuesta es muy genérica porque esto cambia todo el tiempo, pero hoy en día se la utiliza mucho, por ejemplo, en análisis de imágenes en medicina. Como son buenas encontrando patrones, distinguiendo formas y sacando relaciones entre las cosas, si yo entreno una IA mostrándole quince o veinte radiografías donde haya una sección de un tumor o una lesión, después puede ver la imagen de un paciente que no se sabe qué tiene y puede decir qué grado de cercanía tiene con las imágenes que vio; incluso sin entrenarla, puede descubrir semejanzas. También se la utiliza mucho en agroindustria. A veces se analizan los campos con drones en tiempo real, y se ve si hay alguna plaga, si hay tierras secas o húmedas, si hace falta fertilización: por el entrenamiento la IA sabe más o menos como es una plaga, una tierra seca, una tierra con cultivo o sin cultivo. Una aplicación bastante conocida es en conducción autónoma: esta es una IA con muchísimos sensores que le dan su input de lo que ven y perciben del entorno, lo cual le ayuda a tomar decisiones para saber si acelerar, frenar, doblar. Incluso puede manejar mejor que un ser humano que a veces se olvida de poner guiño o no respeta alguna regla de tránsito.

¿Cómo es eso?

Cuando las IA son entrenadas y están funcionando bien, pueden realizan tareas mucho mejor que los humanos. Tienen en cuenta los datos que se les incorporaron, entienden qué relación hay entre esos datos y dicen “bueno mirá, para tomar esta decisión, yo entiendo que estos cinco datos son muy importantes, más que estos otros cinco”. En cambio cuando una persona toma la decisión, le cuesta saber cuál de los datos con que cuenta es el más importante. Un ser humano se deja llevar por otras cuestiones: políticas, afectivas, de amigos. Entonces uno termina tomando una decisión que no es la mejor.

Ezequiel Scordamaglia

¿Son infalibles las IA?

Usualmente son entrenadas con datos de cosas que ya pasaron y esperamos que se reproduzcan en el futuro. Puede darse un caso muy extraño que nunca se dio antes, entonces ahí la IA puede fallar. O puede pasar que las situaciones vayan cambiando. Por eso hay que hacerles una especie de mantenimiento, actualizando su base de conocimiento para que sepan qué cosas van cambiando.

¿Cuáles son los vicios o los problemas que puede haber relacionados con las IA?

Según como sean entrenadas, tienen ciertos sesgos: es lo que se llama “discriminación algorítmica”. Por ejemplo, si yo le doy muchos textos de un nazi, va a entender que la cosa viene por ahí y va a generar textos que ofendan, que insulten, que perjudiquen a alguien. Los sets de datos con que se entrena a las IA tienen que estar regulados o estandarizados como para que no “tiren” para ningún lado, que es algo que pasa mucho.

También hay un poco de desconfianza sobre cómo funcionan internamente, cómo llegan a determinada decisión. Hay algo interno de las inteligencias, los “hiperparámetros” o “parámetros”, que se refiere a qué peso le dan a cada información que les llega y qué relación sacan entre los datos. Por eso uno de los campos en estudio es cómo interpretarlas, cómo dominarlas, cómo limitarlas.

Por otro lado, es muy común la fantasía de que la IA va a reemplazar a los seres humanos y nos va a dejar a todos sin trabajo. No lo veo tan así porque es un camino progresivo, que a veces tiene unos saltos más pronunciados que otros. La IA implica una especie de cuarta revolución industrial: es una evolución que ya comenzó con la Internet, con los dispositivos móviles, con la gran cantidad de datos que hay de la gente hoy en día. Todo esto se fue encaminando hacia este momento en que estamos con el boom de las Inteligencias Artificiales.

En el parlamento europeo se habla de plantear leyes que normen las IA.

Hay países que incluso prohiben inteligencias como el ChatGPT, lo ven como algo agresivo cuando en realidad está en una etapa exploratoria, se está viendo para qué sirve y para qué no. Ciertas inteligencias se empiezan a usar para tomar decisiones porque son más exactas, no están dominadas por las emociones: ahí el problema es que alguien quiera hackearlas o vulnerarlas y les encuentre “la puerta de atrás” para hacer que lo favorezca, o que perjudique a ciertas personas. Las inteligencias tienen errores o pequeños agujeros de seguridad que se podrían utilizar para lograr una decisión a favor o en contra de alguien. Todo esto se está analizando, tratando que tanto el entrenamiento como el acceso al núcleo de la decisión de las IA se maneje con responsabilidad y con ética.

Se pueden generar imágenes, algo que también plantea un tema ético…

Sí, y podemos relacionarlo con la cuestión del deep fake (deep=profundo, fake=falso). Se refiere a que en un video o en una foto se reemplaza la cara de quien está hablando por la cara de otra persona. Antes existían otras formas de trucar una imagen, pero hoy es muy fácil y queda impresionantemente real. Como pasa con las fotografías, es otra de las problemáticas que tenemos ahora: no se sabe si son verdad o mentira.

Proyectos
Ezequiel trabaja en varios proyectos radicados en la UNLa que involucran Inteligencia Artificial. En primer término lo hizo en un proyecto del Centro Interactivo de Ciencia y Tecnología de la UNLa: en la primera fase se analizó cuáles eran los módulos de abremate más visitados, y en una segunda etapa se buscó identificar en cuáles se concentraban más los niños y en cuáles los adultos. Actualmente trabaja en Industria 4.0 y en la Red de Información Meteorológica para la Cuenca Matanza-Riachuelo, entre otros proyectos. “Todo sirve para ir creciendo en conocimiento —dice—. Uno internamente termina sacando relaciones entre todas las áreas aunque sean muy distintas: en una hablamos de meteorología, en otra de riego, en otra de cómo aprende la gente. Son todos proyectos muy enriquecedores”.

Artículos Relacionados

Hacer Comentario