Inteligencia Artificial

IA estaría desarrollando capacidades para mentir y manipular

  • La tendencia global a regular y controlar las capacidades de la inteligencia artificial está llevando a expertos y consultores a investigar si los modelos avanzados de inteligencia artificial están siendo capaces de mentir, manipular e incluso chantajear

Pruebas extremas realizadas en el modelo Claude Opus 4 de Anthropic, sometido a un escenario ficticio, recurrió según los investigadores, al «chantaje» en un 84% de los casos; en tanto que prueba en un modelo de OpenAI intentó «evadir restricciones» y luego «negarlas».

Capacidades emergentes

Aunque todas las palabras utilizadas en el informe son asimilables a intenciones humanas, los investigadores niegan que se deben que los resultados de los análisis se deban a errores ni que sean reflejo de una voluntad humanas, sino de capacidades emergentes en los sistemas que se derivan de entrenamientos complejos y masivos de los modelos para que «aprendan» estadísticamente que ciertos respuestas otorgan «ventajas».

Fiscalización y control

Basados en estas hipótesis derivadas de dos pruebas, los interesados en controlar la IA coinciden en que la falta de regulación estandarizada; pruebas de seguridad y acceso a los modelos impide una fiscalización adecuada.

Proponen que, al igual que en la industria farmacéutica, se exijan ensayos previos a estos sistemas, argumentando que sin una respuesta institucional adecuada, se corre el riesgo de perder el control sobre las tecnologías.

Compartir artículo:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *