Inteligencia Artificial

IA estaría desarrollando capacidades para mentir y manipular

  • La tendencia global a regular y controlar las capacidades de la inteligencia artificial está llevando a expertos y consultores a investigar si los modelos avanzados de inteligencia artificial están siendo capaces de mentir, manipular e incluso chantajear

Pruebas extremas realizadas en el modelo Claude Opus 4 de Anthropic, sometido a un escenario ficticio, recurrió según los investigadores, al «chantaje» en un 84% de los casos; en tanto que prueba en un modelo de OpenAI intentó «evadir restricciones» y luego «negarlas».

Capacidades emergentes

Aunque todas las palabras utilizadas en el informe son asimilables a intenciones humanas, los investigadores niegan que se deben que los resultados de los análisis se deban a errores ni que sean reflejo de una voluntad humanas, sino de capacidades emergentes en los sistemas que se derivan de entrenamientos complejos y masivos de los modelos para que «aprendan» estadísticamente que ciertos respuestas otorgan «ventajas».

Fiscalización y control

Basados en estas hipótesis derivadas de dos pruebas, los interesados en controlar la IA coinciden en que la falta de regulación estandarizada; pruebas de seguridad y acceso a los modelos impide una fiscalización adecuada.

Proponen que, al igual que en la industria farmacéutica, se exijan ensayos previos a estos sistemas, argumentando que sin una respuesta institucional adecuada, se corre el riesgo de perder el control sobre las tecnologías.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *