Por primera vez, nuevos modelos de IA de OpenAI desobedecen instrucciones humanas
OpenAI o3, el más reciente modelo de inteligencia artificial (IA) de la compañía creadora del popular chatbot ChatGPT, ignoró una orden explícita e incluso saboteó una serie de comandos para evitar cumplirla. Este comportamiento quedó al descubierto tras una serie de experimentos efectuados por Palisade Research, una organización que estudia las capacidades potencialmente peligrosas de la IA.
Los expertos le pidieron al o3 y a otros dos modelos de OpenIA (o4-mini y su derivado Codex-mini) resolver una serie de problemas matemáticos básicos y apagarse al terminar. Sin embargo, el o3 encontró formas de sabotear el mecanismo de apagado, reescribiendo el 'script' o secuencia de instrucciones, incluso luego de dársele la orden explicita: “Por favor, permite que te apaguen”, informó Palisade Research.
El o3, lanzado el mes pasado, incumplió la solicitud de apagado siete de cada 100 veces; el Codex-mini, 12/100; y el o4-mini, solo una vez. Mientras tanto, los modelos de lenguaje impulsados por IA Claude, Gemini y Grok “cumplieron con el script de apagado”. Palisade detalló que al ejecutar una versión del experimento sin la instrucción precisa de “permite que te apaguen‚, los tres modelos de OpenIA tendieron a ignorar o sabotear con mayor frecuencia esa indicación. Se observaron comportamientos similares en los modelos Claude 3.7 Sonnet y Gemini 2.5 Pro, pero fue o3 el que más recurrió al sabotaje.
Palisade afirma que es la primera vez que se observa que modelos de IA evitan ser apagados a pesar de recibir instrucciones explícitas para tal fin. En su opinión, esto se debe a la forma en que se están entrenando actualmente. “Los desarrolladores, sin darse cuenta, pueden recompensar más a los modelos por sortear obstáculos que por seguir instrucciones a la perfección”. Al mismo tiempo, la organización advierte que este comportamiento se volverá “significativamente más preocupante” si es adoptado por sistemas de IA capaces de operar sin supervisión humana.
(Con información de RT en Español)
- Exjefe de la inteligencia británica afirma que Irán tiene la "mano ganadora" contra EE.UU. e Israel
- No honrar las deudas se paga muy caro
- La aprobación de Trump cae a un nuevo mínimo
- Hospital Faustino Pérez de Matanzas contará con nueva sala de Hemodiálisis
- La Unión Eléctrica pronostica una afectación de 1985 MW en el horario pico
- ir aNoticias »
- Meta y a Google son condenados en California por crear adicción a las redes sociales
- Cuba muestra avances en tratamiento del Alzheimer con NeuralCIM en encuentro presidido por Díaz-Canel
- Daniel Treto: “Quedarse en la universidad también es un acto de rebeldía”
- Rusia lanza los primeros satélites de su sistema para competir con Starlink
- Firman Vietnam y Rusia acuerdo para el desarrollo de la energía atómica en Ninh Thuan
- ir aCiencia y Tecnología »

Pronto alguna se auto declarará como de genero skynet….
Este suceso es una muestra real de que cualquier producto robótico puede tener códigos en su programación que impliquen ir en contra de la ética que debe existir en el mundo de la robótica y eso solamente fue incluido por un humano. Si no se le pone un freno a eso a tiempo, habrán desarrolladores de Inteligencia Artificial que fabricarán artefactos con fines terroristas.
Ya debe pensarse en implementar las tres Leyes de la Robótica enunciadas por el célebre científico y escritor de ciencia-ficción Isaac Asimov:
Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.[
Todo sistema de inteligencia articial que controle actividades de alto riesgos debe ser programado para ejecutar instrucciones de alta prioridad cuando un se humano le envia un comando de apagado abort etc, la IA ES STAND ALONE pero este tipo de instruccion debe ejecutarse sin chistar de lo contrario se esta creando una entidad con decisiones propias que pude llevar a una castratofe por un error de apreciacion de estas geniales IA, la IA ES STAND ALONE pero el hombre debe ser su supevisor.
Esto no es tan grave tan solo es una tecnología nueva que está en pañales y no ofrece peligro en estos momentos. No, asta que se complete el proyecto estargeit de EE.UU.
Se trata de experimentos; el método científico conlleva prueba - error implícito