Novedades

Hacia una inteligencia artificial transparente y segura

15/08/2023
La investigación desempeña un papel fundamental en una universidad, ya que representa la búsqueda incesante de conocimiento y la exploración de nuevas fronteras en diversos campos del saber.
Hacia una inteligencia artificial transparente y segura

Es a través de la investigación que se generan avances científicos, tecnológicos, sociales y culturales que enriquecen la sociedad en su conjunto. Además, la investigación fomenta el espíritu crítico, la curiosidad intelectual y la capacidad de resolver problemas complejos, cualidades esenciales para formar profesionales altamente competentes. Asimismo, su integración con la educación permite a los estudiantes acercarse a la vanguardia del conocimiento y participar activamente en proyectos.

En la Facultad de Ingeniería la mayor parte de la actividad de investigación se hace a través de centros y grupos, en los cuales se desarrollan proyectos con alto contenido tecnológico y científico, se realiza investigación aplicada, y se produce material educativo innovador.

En esta oportunidad dialogamos con el Dr. Sergio Yovine, catedrático y coordinador académico de Inteligencia Artificial y Big Data, para conocer el trabajo que hacen dentro del grupo de investigación en Inteligencia Artificial (IA).

“Dentro del área hay un gran paraguas que engloba lo que investigamos, que es lo que se llama Inteligencia Artificial Responsable, que tiene que ver con el uso, la aplicación y el desarrollo de dispositivos y algoritmos de IA para que actúen de manera justa”, explica Yovine. El objetivo de la IA Responsable es asegurar que los sistemas de inteligencia artificial actúen de manera justa, transparente, segura y respetuosa hacia las personas y la sociedad en general, involucra lo que es la protección de datos y la verificación del uso adecuado de la IA que se desarrolla.

“Yendo a lo más específico que hacemos dentro del grupo es verificar y analizar inteligencia artificial con inteligencia artificial”, explica y continúa: “Para hacer un paralelo es lo que se hace en ingeniería de software, que se hace software para verificar y testear software”

Para entenderlo mejor, Yovine pone el siguiente ejemplo: “Una de las preguntas típicas hoy es si los lenguajes generan textos que tengan sesgo de género o cualquier tipo. Lo que se intenta es caracterizar esa propiedad de manera más formal y después tener un algoritmo que verifique que el language model no incurra en ese tipo de sesgo o si lo hace tomar algún tipo de medidas”.

Otra de las investigaciones que llevan a cabo es sobre la privacidad, que es cómo incorporar privacidad dentro de los algoritmos de aprendizaje. Yovine explica que “las historias clínicas pueden ser usadas para poder hacer análisis de diagnóstico, prevención de enfermedades, etc., pero no querés que se fugue información privada, ni que sea publicada. La manera de atacar el problema es aplicar mecanismos para que todo lo que sea información sensible sea protegida”. “La dificultad cuando hacés eso, es que los datos empiezan a servir menos, por decirlo de alguna manera, por lo que hay que encontrar un buen equilibro entre proteger los datos, pero sin perder utilidad.”

Principales oportunidades

“Específicamente en la verificación, la explicabilidad y la privacidad tienen la dificultad de poder llegar a una aplicación concreta porque hay grandes jugadores en este ámbito (Google, Meta, Apple, OpenIA). La oportunidad creo que va a estar en el desarrollo de mecanismos externos que trabajen sobre la salida de estos chats o modelos de lenguaje”, dice Yovine.

Por ejemplo, contratar los servicios del language model, pero adecuarlo a una aplicación concreta, como puede ser la consulta de documentación privada, hacer un chat específico de un tema.

Para entender mejor su uso, Yovine pone el siguiente ejemplo: “Se crea un chat en la universidad para que dé datos sobre las diversas carreras que brinda, pero quizá en la documentación que se usa hay información que es privada y no se quiere dar. Ahí se puede aplicar la privacidad porque es una adecuación de un servicio externo”.

“También está el lado de la persona que hace la consulta, que da información personal y no quiere que se difundan sus datos. Ahí hay una oportunidad de privatizar los datos de entrada y asegurar que sus datos no van a hacer divulgados. Esto hoy no pasa si usas ChatGPT, no hay garantía de que eso ocurra,” dice Yovine.

Recursos académicos