Inteligencia Artificial

La IA «súper inteligente» es sólo una exageración especulativa

  • Estudios liderados por Apple muestran que los modelos actuales de inteligencia artificial presentan limitaciones fundamentales en razonamiento complejo que debilitan seriamente sus proyecciones.

Los resultados de estas investigaciones refutan la narrativa de moda de una IA sobrehumana que está tomando el control social, del gobierno, la educación y la estructura del trabajo, como lo afirman líderes de empresas como OpenAI, Google, Anthropic y Meta.

Porque si bien la IA generativa ha demostrado gran utilidad en tareas específicas, como productividad personal o codificación, los sistemas actuales fallan en tareas lógicas simples y carecen de comprensión real, dado que no poseen capacidades de razonamiento profundo ni criterio autónomo confiable.

La ilusión de pensar

Los resultados del estudio de Apple que evaluó la capacidad de razonamiento de modelos avanzados de IA de las empresas líderes OpenAI, Anthropic y DeepSeek dieron como resultado colapsos de precisión ante tareas complejas y no lograron seguir instrucciones básicas que incluso un niño podría entender, por lo que Apple y otros desarrolladores como Salesforce advierten que los modelos «de razonamiento» actuales no superan en desempeño a versiones anteriores más simples.

Limitaciones técnicas y cognitivas

Loas análisis indican que las IA actuales operan como motores de asociación probabilística y no como pensadores lógicos o ingenieros disciplinados, limitaciones que se vuelven críticas cuando se les asignan tareas que requieren reglas estrictas, juicio ético o precisión profesional.

Verdadero riesgo

El verdadero riesgo no es que la IA se vuelva demasiado poderosa, sino que la humanidad confíe en ella más de lo que es técnicamente justificado, debilitando la supervisión humana y provocando errores en ámbitos sensibles.

Confiar ciegamente en la IA sin supervisión crítica, dicen estos expertos, en contextos como defensa, gobierno, educación o salud, expone al riesgo de «alucinaciones» o decisiones sin base lógica que pueden llevar a resultados catastróficos.

Perspectiva futura

Aunque los modelos actuales enfrentan límites, investigadores reconocen que exponer estas falencias es clave para avanzar hacia una evolución con nnuevas estrategias, como entrenamiento más granular, uso híbrido con software tradicional y diseños modulares que podrían permitir mejoras significativas.

El precio de la cortesía en ChatGPT

  • Saludar y agradecer a la IA con frases de cortesía como “hola”, “por favor” o “gracias” «obliga» a las herramientas informáticas a generar innecesarias respuestas «amables» que se leen como «personalizadas y humanizadas».

Esto, junto con profundizar la absurda ilusión de «personificar la conversacion» y estar manteniendo un «diálogo humano» con la inteligencia artificial, genera costos significativamente altos y una huella ecológica elevada, incrementando el consumo energético al activar múltiples servidores para procesar mensajes adicionales de respuesta.

Interacción global

Aunque el impacto individual de la cortesía es mínimo, al multiplicarse por millones de interacciones diarias en todo el mundo, cada instrucción implica el uso de grandes centros de datos que procesan la información y cuanto más extenso y fragmentado sea el mensaje, mayor será el procesamiento y la energía requerida.

Sam Altman, de OpenAI confirmó en una entrevista  que estas interacciones ya han supuesto decenas de millones de dólares en costes operativos; no obstante, añadió que para OpenAI estas conductas son “millones bien invertidos” porque consolidan el vínculo emocional usuario-IA, que es bueno para el negocio.

Costo social

Algunos detractores de la amabilidad cibernética sostienen que el verdadero costo de la cortesía no es sólo económico o ambiental, sino arraigadamente social y que el más alto  precio es resignarse a que a aceptar que la interacción humana genuina con la IA es una ilusion y que las respuestas son sólo imitaciones programadas por una máquina.

Defensa del medioambiente

Los defensores de medioambiente, por su parte, abogan por una eficiencia en la interacción puesto que  no se necesita un exceso de cortesía para obtener respuestas adecuadas,

Recomiéndan a quienes «gustan de conversar» con la IA combinar cortesía con concisión, evitando mensajes fragmentados y peticiones abusivas, como generar versiones que no son necesarias.

Añaden que para controlar el elevado efecto energético y ambiental de la «cortesía digital» es clave un comportamiento consciente de los usuarios que se refleje en un uso responsable y reflexivo que contribuya a reducir el impacto de la IA.

Recomendaciones para un uso sostenible
  • Ser claro y preciso: evitar ambigüedades y fragmentar instrucciones.
  • Reducir palabras innecesarias: cortesía mínima sin abusos.
  • Evitar interacciones por diversión excesiva, como generar imágenes masivamente.
  • Promover una conciencia sobre el costo ambiental asociado al uso de IA.
Compartir artículo:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *