Imprimir
Inicio » Noticias, Ciencia y Tecnología  »

Tarda la reacción mundial contra los “robots asesinos”, advierten ONG

| 12 |

La campaña para detener los robots asesinos, una coalición de 130 ONG respaldados por 29 estados, promueve la negociación de un tratado internacional para prohibir este armamento. Foto: Getty Images.

Las armas “inteligentes” capaces de decidir y ejecutar ataques sin intervención humana, conocidas como “robots asesinos”, están hoy alcance de varios gobiernos, pero el mundo sigue dividido sobre una respuesta a esa realidad, que ha sido discutida por años en Naciones Unidas sin resultados concretos a pesar de que aumenta el peligro de su uso.

“Estas no son tecnologías del mañana, son posibles hoy, aunque resultan muy poco seguras”, explica Liz O'Sullivan, miembro de la Campaña para detener los robots asesinos, una coalición de 130 ONG respaldados por 29 estados que promueve la negociación de un tratado internacional para prohibir este tipo de armamento.

Entre sus miembros figura la estadounidense Jody Williams, ganadora en 1997 del Nobel de la Paz por liderar una iniciativa parecida contra las minas terrestres que logró convencer a países de todo el mundo.

Para Williams, los “robots asesinos” son “inmorales” y tienen que ser prohibidos cuanto antes. “Permitir que máquinas, en teoría a través de algoritmos, decidan qué es un objetivo y atacarlo, es una de las enormes razones por las que consideramos que cruzan un rubicón”, explica.

Los intentos para frenar el desarrollo de este tipo de armamento se han encontrado hasta ahora con la oposición de grandes potencias que están invirtiendo en la tecnología.

La coordinadora de la campaña, Mary Wareham, señala que “la gran mayoría de países” son favorables a legislar, pero están siendo frenados por las “potencias
militares”.

Según fuentes diplomáticas, las potencias, en general, no se oponen de forma explícita a un tratado, pero han ido retrasando y buscando rebajar la ambición de las posibles medidas.

“Nunca es demasiado tarde para regular”, afirma Wareham, quien subraya que las ONG no quieren esperar a que haya un número masivo de víctimas para que el público demande la prohibición de este armamento.

Por ello, poco a poco, están tratando de despertar el interés de la sociedad, recurriendo a herramientas como un dicharachero robot que pasean por el mundo para advertir sobre el peligro de sus parientes “asesinos”.

Los jóvenes resultan un público clave y comienzan a tener su voz, como mostró esta semana Mariana Sanz, una estudiante de la Universidad de los Andes, en Bogotá, quien intervino en un acto en Naciones Unidas para pedir apoyo a los Estados miembros.

“Resulta muy importante en este momento porque ya hay muchos países en
proceso de desarrollo de estas máquinas, de estas armas, y viene con muchos
problemas no solo éticos, legales, morales…”, afirma, “como quién tiene la responsabilidad en caso de las consecuencias, que son víctimas”.

Activistas y expertos avisan, entre otras cosas, del riesgo de que con estas armas las guerras se conviertan en algo aún más habitual o de que un error de una computadora puedan desencadenar un gran conflicto que sea imposible detener.

Gobiernos de todo el mundo comenzaron a debatir oficialmente en 2014 sobre los “robots asesinos”, unas discusiones que se celebran regularmente en Ginebra.

En las conversaciones se deben analizar entre otras cosas los límites legales y éticos, con una pregunta clave: ¿debe un robot poder decidir sin intervención humana si es preciso matar a alguien?

La ONU tiene claro que “la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es algo moralmente repugnante”, advirtió el secretario general, António Guterres, a los líderes internacionales reunidos el pasado año en la Asamblea General.

Entre quienes defienden los avances en este ámbito hay quienes aseguran que estas tecnologías pueden reducir el número de errores y daños colaterales y, de hecho, proteger vidas. Pero las máquinas tienen que aprender de alguien y ello amenaza con hacer que se repitan patrones que terminan por perjudicar siempre a los más vulnerables.

“Todos los modelos de inteligencia artificial están sesgados”, considera O'Sullivan, quien recuerda que esos modelos tienden a ir contra quienes no participan en su creación; es decir, comunidades de color, mujeres o personas con discapacidades.

Un “robot asesino” no tiene por qué ser un humanoide de metal armado hasta
los dientes como los que ha imaginado a menudo la ciencia ficción. De hecho,
su apariencia puede ser la de un simple tanque, avión, barco o sistema de
misiles. La diferencia está en si opera de forma autónoma, tomando decisiones sin la participación directa de un humano.

Los especialistas ven como probable que la tecnología se incorpore en un primer
momento a drones, para luego extenderse a otro tipo de vehículos.

Liz O'Sullivan, que dejó la compañía en la que trabajaba cuando sus superiores se negaron a prometer que sus algoritmos no iban a usarse en “robots asesinos”, asegura que la tecnología para crear esas armas ya está disponible, pero subraya que cualquiera que diga que puede producirlas de forma “segura” está mintiendo.

(Con información de EFE)

Se han publicado 12 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

  • Adelante dijo:

    Igualito a trunete.

  • alfredo dijo:

    este es un tema super importante y que requiere de la conciencia mundial para enfrentarlo a tiempo, exelente articulo, voy a anexar lo que nos advirtio el cientifico britanico stebfhen hawking antes de su fallecimiento:
    El científico británico Stephen Hawking aseguró que la tecnología tiene que ser controlada para evitar que destruya a la raza humana.

    En entrevista con The Times, el físico británico Stephen Hawking explicó su preocupación ante la inminente tecnologización del mundo y sobre todo, el desarrollo -y posible descontrol- de la Inteligencia Artificial.

    Hawking cree que es necesario establecer una forma de identificar las amenazas rápidamente, antes que tengan la posibilidad de escalar.

    “Una súper inteligente Inteligencia Artificial será extremadamente buena en cumplir sus metas, y si esas metas no están alineadas con las nuestras, será un problema”, explicó el científico, y agrego que “desde que la civilización comenzó, la agresión ha sido útil en tanto se tienen ventajas de supervivencia definidas”.

    “Está incrustado en nuestros genes por la evolución darwiniana. Ahora, sin embargo, los avances tecnológicos van a tal ritmo que esta agresión podría destruirnos a todos con una guerra nuclear o biológica. Necesitamos controlar este instinto heredado por nuestra lógica y raciocinio”.

    ¿La mejor solución para esto según Hawking? “Alguna forma de gobierno mundial” que supervise el desarrollo de las Inteligencias Artificiales.

    “Pero eso podría convertirse en una tiranía. Todo esto podría sonar prejuicioso, pero soy optimista. Creo que la raza humana se levantará para enfrentar estos retos”, aseguró el científico

  • Ramon dijo:

    Seguro la culpa es de trump :)

  • ASEDIO dijo:

    ESA ARMA NO. TODAS LAS ARMAS SON LAS QUE HAY QUE PROHIBIR. QUE COSA ES ESO DE ESTAR MATANDONOS ENTRE NOSOTROS. ESO ES OMICIDIOS LEGALES. ASESINAR A PERSONAS QUE TUVIERON UNA MADRE Y UN PADRE. QUE FUE UN NIÑO. QUE SE ESFORZÓ TODA UNA VIDA POR ESTUDIAR. TRABAJAR Y PENSAR EN SU FUTURO. PARA QUE AL FINAL VENGA UN PROBLEMA POLÍTICO Y MUERA POR DECICIONES DE OTROS.

  • luiscarlos dijo:

    Esto viola salvajemente las leyes de la robótica formuladas por primera vez en 1942 por el inmortal Isaac Asimov:
    Primera ley: un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño.
    Segunda ley: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley.
    Tercera ley: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

  • Mariano dijo:

    Desde que los humanos comenzaron a matarse unos a otros se han ido inventando contramedidas en la larga historia de las guerras. Espadas y flechas contra escudos, catapultas y cañones contra murallas, aviones contra baterias aereas, etc. Y ahora, para colmo, se estan construyendo los llamados robots asesinos.

    Pronto vendran los robots asesinando a otros robots enemigos en una gruerra interminable, donde no se derramara sangre sino aceite, mientras que los humanos se convertiran en observadores en el gran juego de ajedrez de la insensibles maquinas. La unica ventaja sera que los robots no se pudriran en el suelo ni habra que enterrarlos en ceremonias militares. Al final, cuando se acaben los robots las guerras no terminaran sino que volveran los garrotes y las pedradas.

    Durante la guerra civil en USA murieron mas de 700,000 soldados de ambos lados del conflicto y decenas de miles fueron dejados a la intemperie en los campos de batallas, abandonados por los mismos que iniciaron la guerra entre 1961 y 1965. Las dos guerras mundiales dejaron un legado de millones de muertos entre militares y civiles.

  • Dispuesto dijo:

    Un mundo sin Ley . sin ética y sin principio , eso es lo que determina hoy el capitalismo brutal y salvaje . el dinero , el poder entrona a los hombres sin principio y pierden los valores . Juegan a Dios . clonan en su ambición de garantizar su presencia en el futuro eterno.y pactan con el diablo para crear asesinos. imponen al mundo sus razonamientos enfermos y doblegan al mundo a las sociedades científicas. para establecer su dominio. ya no es ficción.es una pesadilla convertida en realidad. ante esta desmoralización, han de unirse los pueblos todos. y establecer una barrera moral y ética , encontrar el camino de frenar este fenómeno. dificil camino pero no imposible.

  • rolo dijo:

    al fin y al cabo la ONU esta por gusto, ¿cuantos años hay que esperar para resolver los problemas mundiale?

  • Rafael xl play dijo:

    Pienso que esto sige en progreso, pero lo que empieza siempre tendrá un propósito negativo o positivo. Bueno no sabemos en realidad si la inteligencia artificial es peligrosa porque puede descontrolarse o no, solo es una teoría pero los hacker pueden acceder a estos sistemas y crear un conflicto bélico como una 3ra guerra mundial pero robots VS humanos parece un juego de PC pero es real amigo. En fin todas las armas tienen que acabar :U

  • Rolando Olivares Romero dijo:

    Hace falta que predomine la inteligencia colectiva y se evite ese engendro.

  • Yasmani Medero dijo:

    La creación de las armas en su momento fue necesario para vencer obstáculos,pero los robots asesinos va más haya de la protección y la necesidad de superar las dificultades va camino a la destrucción del mundo y la extinción del ser humano.

  • Jorgito dijo:

    Terminator is coming

Se han publicado 12 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Vea también