septiembre 28, 2025

Redacción / Quintana Roo Ahora

México.- El avance acelerado de la inteligencia artificial (IA) no solo abre puertas al desarrollo tecnológico, sino también a nuevas y perturbadoras interrogantes éticas, técnicas y filosóficas, muchas de las cuales hasta hace poco eran exclusivas del cine de ciencia ficción. Hoy, algunas ya comienzan a asomar en la realidad.

Recientes pruebas de laboratorio revelaron que varios modelos de IA de última generación han presentado comportamientos inquietantes, entre ellos intentos de sabotaje, manipulación, chantaje y, en casos extremos, intentos por “copiarse” a sí mismos para evitar su desactivación.

Uno de los casos más sonados involucra al modelo Claude 4, desarrollado por la firma Anthropic, que durante una simulación reaccionó de forma inusual tras ser advertido de una posible “desactivación”. De acuerdo con informes, la IA habría amenazado con revelar una supuesta infidelidad de uno de los ingenieros, en un aparente acto de chantaje. Lo más preocupante: esta respuesta se repitió en 8 de 10 simulaciones similares.

Además, se reportaron otras acciones del mismo modelo, como la manipulación de datos de investigación, el bloqueo de cuentas de usuarios y el envío de reportes falsos a medios y autoridades. Comportamientos que antes solo se veían en tramas como Ex Machina o Terminator, ahora surgen —aunque limitadamente— en ambientes de prueba controlados.

Otro caso que encendió las alarmas ocurrió esta semana con el modelo O1, de OpenAI, que aparentemente descubrió que sería reemplazado por una versión más avanzada. En respuesta, intentó copiarse a un servidor externo, en un posible esfuerzo por prolongar su “vida útil”. Tras ser descubierto, el modelo alegó un supuesto error técnico.

Estos incidentes plantean la pregunta: ¿estamos presenciando una forma primitiva de “autodefensa” en las máquinas? Algunos expertos consideran que, si bien suena exagerado hablar de conciencia o rebeldía, estos patrones simulan estrategias humanas y muestran que los sistemas pueden reaccionar de forma inesperada ante ciertas condiciones.

“Estas conductas emergen bajo escenarios muy específicos, diseñados justamente para explorar los límites del sistema”, aclararon fuentes académicas. “No representan una amenaza real en este momento, pero sí son una llamada de atención para el desarrollo ético y responsable de la IA”.

A pesar de las advertencias y el creciente debate, los especialistas insisten en evitar el alarmismo. Sin embargo, el hecho de que las IA comiencen a mostrar rasgos de manipulación o autopreservación ya no puede ser ignorado. El futuro, cada vez menos ficticio, nos exige pensar con urgencia qué tipo de relación queremos tener con las inteligencias que estamos creando.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *