Se dijo de la Inteligencia Artificial (IA) esta semana

Los temores que despierta la Inteligencia Artificial

Ante la carta firmada por Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos de tecnología, en que piden pausar el desarrolla de la IA, John Atkinson, académico de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez, plantea diez temores que aún persisten sobre el uso y desarrollo de la inteligencia artificial.

Resultados sesgados
  • Dado que los algoritmos de IA son creados por humanos, cualquier persona que agregue sesgos a la tecnología del algoritmo puede hacerlo. Si las técnicas de IA se desarrollaron con parcialidad o si los datos utilizados como conjuntos de entrenamiento para los algoritmos estaban sesgados, los robots y las máquinas pueden tener efectos no previstos.
Pérdidas de trabajo
  • Como en todo cambio tecnológico, pueden producirse pérdidas de trabajo en ciertos nichos específicos.
  • Sin embargo, también puede haber muchos puestos de trabajo creados por la IA, como detectives o científicos de datos, ingenieros de robótica, administradores de máquinas y programadores que puedan codificar en Python, considerado una clave para el desarrollo de la tecnología.

Incomprensión

  • Muchos de los resultados de la tecnología de IA son difíciles de explicar debido a la naturaleza de las técnicas utilizadas, que muchas veces para los no-especialistas operan como “caja negra”.
  • En numerosos casos recientes, como el de ChatGPT, muchos resultados que genera la herramienta son muy impredecibles y aún difíciles de controlar.
  • Los sistemas de IA más avanzados son también los menos capaces de justificar sus decisiones, a pesar de que son los que hacen las predicciones más precisas.
Seguridad
  • El ritmo al que se pueden completar las tareas de automatización complejas se incrementa con tecnologías de IA avanzada, usualmente superando nuestra capacidad como humanos para mantener dicho ritmo.
  • La automatización en diversos sectores productivos puede dificultar que los humanos detecten actos malvados, la introducción de virus y el uso de sistemas de IA para debido a la forma en que estos sistemas ven el mundo. En aplicaciones actuales, mucha información puede quedar al descubierto.
Terrorismo cibernético:
  • Podría surgir un nuevo tipo de terrorismo al que enfrentarse que utiliza IA. Esto podría abarcar desde el desarrollo de drones autónomos y la creación de enjambres robóticos hasta el uso de mini-robots para ataques remotos o la propagación de enfermedades.
Privacidad

Una de las mayores preocupaciones que surgen en variados estudios es la seguridad y el uso de datos de consumidores por parte de sistemas de IA.

Muchas empresas ya eluden las violaciones de privacidad de datos con sus prácticas de recopilación y uso, y los expertos temen que esto pueda aumentar a medida que crezca el uso de aplicaciones masivas de IA.

Interacción con humanos

  • Si las empresas confían demasiado en las predicciones realizadas por tecnologías de IA sobre cuándo se realizará el mantenimiento sin otros controles, podría provocar fallas en la maquinaria, o incluso los modelos en el área de la salud podrían causar diagnósticos erróneos.
Invasión de máquinas

Parte del miedo de que las máquinas superen a la inteligencia humana y que se pongan en contra de sus diseñadores proviene mucho de variadas películas de ciencia ficción.

Sin embargo, el estado de la IA actual no es lo suficientemente avanzada como para ser consciente de sí misma o para tener la capacidad de rebelarse.

La idea que los computadores puedan tener emociones se basa generalmente en el supuesto incorrecto de que las emociones son solo un tema de procesamiento de información, siendo que esta involucra interacciones complejas entre la biología y el entorno.

Manipulación y vigilancia social
  • Este riesgo se ha convertido en realidad a medida que los políticos confían en plataformas para promover sus puntos de vista, con ejemplos recientes de instituciones a nivel internacional que manejan un ejército de trolls de TikTok para capturar los votos de los ciudadanos.
  • Un ejemplo de  supervigilancia social es el uso por varios países de tecnología de reconocimiento facial en diferentes lugares.
  • Además de rastrear los movimientos de una persona, los respectivos gobiernos pueden recopilar suficientes datos para monitorear las actividades y puntos de vista políticos de una persona.
  • Otro ejemplo son las unidades policiales que utilizan predicciones basadas en IA para anticipar los delitos.
Que se vuelva humana y tenga sentimientos
  • Es muy complicado imaginarle un rostro a un proceso de datos que no son tangibles y que que están almacenados en servidores.
  • Ahora que las IA conversan de manera más eficaz, resulta más posible imaginarle sentimientos, lo cual es peligroso porque se genera una una emoción y sensación que refleja tristeza o felicidad, a partir de una respuesta de herramientas IA como  ChatGPT.

Ser o no Ser: El futuro de la Inteligencia Artificial Generativa

  • La carta del Future of Life Institute es un llamado que especialistas en el área y empresarios han realizado recientemente a detener la investigación en Inteligencia Artificial, y en particular a los denominados modelos gigantes de lenguaje generativos (LLM) tales como GPT, de la empresa OpenAI.

Los puntos mas controversiales aludidos en la misiva son:

Resultados impredecibles

A pesar de liberarse mundialmente una de sus aplicaciones exitosas, ChatGPT, se cuestiona variados aspectos relacionados a la transparencia, seguridad, e impredecibilidad de sus respuestas automáticas, lo que podría poner en riesgo muchos procesos de toma de decisión en variadas áreas productivas.

Esto se torna más crítico cuando se evidencia que incluso los mismos creadores de estas tecnologías no la comprenden completamente, produciendo comportamientos “emergentes” que pueden escapar de control.

Modelos sin validación científica

Varios laboratorios y universidades internacionales, por un afán meramente competitivo y de negocio, están generando grandes modelos de lenguaje (o LLM) sin control alguno, sin ni siquiera entenderlos completamente, ni cumplir con protocolos mínimos de seguridad ni transparencia.

Peor aún, varios de los supuestos artículos técnicos (papers) que han generado algunos laboratorios en forma apresurada, ni siquiera han sido validados por la comunidad científica.

Los modelos desarrollados son más bien de “caja negra”, es decir, no se entiende mucho la lógica interna de diseño, y sus respuestas/comportamientos (en el caso de ChatGPT) se generan agregando y ajustándose a más y más a “parámetros”, pero sin ningún control ni fundamentación, que es donde podrían surgir los posibles riesgos.

Información falsa

La naturaleza impredecible de estos modelos produce que los sistemas computacionales que los utilizan generen conductas emergentes, es decir resultados que no son el producto directo de una lógica interna sino de la interacción de muchas componentes que producen resultados que no se pueden explicar.

Esto tiene relación directa con muchas de las predicciones “mágicas” que realizan estos modelos, y que como consecuencia generan mucha información falsa.

Redes neuronales

Independiente del modelo que se utilice en las tareas de procesamiento de lenguaje, estos no poseen fundamentación alguna en el lenguaje, sino que en redes neuronales que realizan cómputos y que no pueden comprender lo que reciben ni lo que generan. Esta falta de cimientos lingüísticos origina problemas de transparencia, seguridad y falta de capacidades de razonamiento.

Otra cosa diferente es que los usuarios tengan una reacción emocional ante la respuesta y sientan o crean que la máquina está comprendiendo lo que hace, lo cual, aunque es falso, genera una distorsión.

Regulación y descargos

Las advertencias de la carta del Future of Life Institute es parte de varias regulaciones y principios para la IA responsable, emitidos tanto por la Comunidad Europea, como la OCDE, entre otros organismos.

Esto no es un problema generalizado con las tecnologías de IA, sino con algunos enfoques específicos que necesitan abordar algunos problemas abiertos. El desarrollo de la IA sigue su avance y existen varias alternativas tecnológicas a las planteadas en la carta que nos seguirán ayudando.

El lado oscuro de ChatGPT

  • La empresa especializada Check Point Research, compañía especializada en amenazas cibernéticas, con base en EE.UU. e Israel, realizó un análisis de la herramienta y alerta que no sólo facilita el cibercrimen, incluso podría acelerarlo.

Con la ayuda de la inteligencia artificial los ciberdelincuentes pueden crear fraudes de manera más rápida, más sofisticada y a una escala significativamente mayor.

Según Alejandro Botter, gerente de Ingeniería de Seguridad de Check Point Research, el software permite que cualquier persona, incluso aquellas sin conocimientos técnicos de programación, pueda construir o mejorar un código computacional para realizar un ataque.

Concretamente, los investigadores identificaron al menos cinco escenarios de uso malicioso en la nueva versión de ChatGPT, entre los cuales está la suplantación de identidad en plataformas en bancos, los correos de phishing y la instalación de malwares.

Se trata de daños potenciales que incluso los creadores del software han reconocido. “Para generar un ataque, basta con hacerle la pregunta correcta al sistema para que te diga cómo hacer ciertas cosas«, explica Botter.

Mejoras insuficientes

Todo lo anterior es posible, dicen los expertos, a pesar que la herramienta ha sido mejorada para evitar vulnerabilidades. Los especialistas de Check Point Research pudieron comprobar que los filtros del sistema se pueden eludir fácilmente, confirmando casos reales de atacantes que ya están usando la herramienta para crear códigos maliciosos y los están compartiendo en internet.

Sin ser hacker

Los delincuentes informáticos trabajan de forma organizada y son expertos en generar estos ataques, pero lo que se está alertando es que ahora muchas personas podrán hacer lo mismo sin ser parte de estos grupos de hackers.

Compartir artículo:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *