Inteligencia Artificial: ¿Temor al futuro?
Por José Dos Santos

Algo temen quienes en el llamado “mundo occidental” trabajan en la creación y expansión multidimensional de la llamada “Inteligencia Artificial” (IA) cuando piden mecanismos de control, supervisión y hasta eventuales sanciones por su mal uso.
Ya dejaron de ser fantasías de H.G.Wells o Isacc Asimov. Sus relatos parecen ser cuentos para niños en esta etapa del siglo XXI. Sus alcances son imprevisibles e incorporan nuevas interrogantes al destino de la Humanidad.
El mas reciente ejemplo de la zozobra que nace con el crecimiento de la IA lo dio Sam Altman, director general de OpenAI, ente creadora del ChatGPT, una herramienta cada vez mas popular para el diálogo mediante Internet. Él acaba de sugerir ante el Senado estadounidense la creación de una agencia nacional o internacional que concediera licencias a los sistemas de IA más potentes.
En su exposición, según reportes de prensa, dijo que la inteligencia artificial puede causar "un daño significativo al mundo" si no se regula. Estimó que “la intervención de los gobiernos será fundamental para mitigar los riesgos de los sistemas de inteligencia artificial (IA)”.
"A medida que esta tecnología avanza, entendemos que la gente esté preocupada por cómo podría cambiar nuestra forma de vida. Nosotros también lo estamos", comentó Altman antes de sugerir la creación de una agencia que concediera licencias a los sistemas de IA más potentes y tuviera autoridad para "retirar esa licencia y garantizar el cumplimiento de las normas de seguridad".
Dicen que el auge del ChatGPT ha desatado el pánico entre los educadores por el uso que le dan numerosos estudiantes para hacer trampas en los exámenes.
Esto ha generado nuevas preocupaciones sobre la capacidad de esta herramienta de "IA generativa" para engañar a la gente, difundir falsedades, violar la protección de los derechos de autor y poner en peligro puestos de trabajo.
"La Inteligencia Artificial Generativa (IAG) es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes. Esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo y único. Los avances en la IAG han sido impresionantes en los últimos años..."
Marcelo Granieri, Profesor de OBS Business School
Una alerta adicional a la de Altman se desprende de su pedido de creación de un ente regulador-controlador, porque si recae en Washington un poder supranacional omnipresente en esta materia sería como entregarle la llave del cielo al diablo.

Los usuarios no deben confiar ciegamente en las respuestas que ofrece la IA. Foto: Gettyimages
Otras preocupaciones
Muchos temen que la IA que pudieran "autorreplicarse y autoexfiltrarse en la naturaleza", lo que se refiere a la vieja amenaza futurista en la que los robots se enfrentan a los humanos o en este caso que la IA pudieran manipular sus decisiones.
Ya el Parlamento Europeo aprobó hace unos días medidas para regular su uso. La legislación será tratada en un pleno en junio para acordar la versión definitiva del nuevo reglamento.
Redacción Cambio, de Colombia, publicó que “a medida que la IA se vuelve más omnipresente en nuestras vidas, surgen interrogantes sobre su impacto en la sociedad, la economía y los derechos individuales”.
Al respecto, refiriéndose a un segmento importante del turismo internacional, escribió “Inteligencia Artificial y Big Data: la dupla ideal para atender a turistas hiperconectados”. Y los enumeró
1. Riesgos para la seguridad y el sustento: Uno de los principales focos de preocupación se centra en el potencial de la IA para poner en peligro la vida y el sustento de las personas. *Esto se aplica especialmente en áreas como la medicina y las finanzas, donde se requiere una regulación sólida para garantizar que las decisiones tomadas por los sistemas de IA sean precisas, éticas y seguras.
2. Discriminación y violación de derechos: Otra preocupación destacada es el uso de la IA para fines discriminatorios o para violar *los derechos civiles de las personas. Los legisladores se preocupan por la posibilidad de que los algoritmos de IA refuercen prejuicios existentes o generen sesgos*, como la discriminación racial o de género, al tomar decisiones en áreas como contratación, acceso a servicios o préstamos.
3. Responsabilidad y regulación: Existe un debate sobre si la regulación de la IA debe recaer en los desarrolladores de la tecnología o en las empresas que la utilizan. Algunos abogan por la creación de un regulador independiente de la IA para supervisar su desarrollo y aplicación, mientras que otros argumentan que la responsabilidad debe recaer en las empresas que implementan la tecnología.
4. Privacidad y protección de datos: La recopilación masiva de datos por parte de los sistemas de IA plantea preocupaciones sobre la privacidad y la protección de datos personales. Los legisladores buscan establecer reglas claras y garantizar que los datos de las personas sean utilizados de manera ética y segura, evitando el riesgo de violaciones de la privacidad o del mal uso de la información personal.
5. Desinformación y manipulación: La proliferación de la IA generativa, como ChatGPT, que puede crear contenidos similares a los generados por humanos, ha despertado preocupaciones sobre la posibilidad de que se utilice para difundir desinformación o manipular la opinión pública. Los legisladores buscan formas de abordar este problema y establecer salvaguardias para prevenir la propagación de noticias falsas y la manipulación de la información*.
6. Ética y responsabilidad: La IA plantea preguntas éticas y desafíos en términos de responsabilidad. Los legisladores se enfrentan al desafío de establecer estándares éticos claros para el desarrollo y uso de la IA, así como determinar quién es responsable en caso de daños causados por sistemas de IA autónomos o decisiones automatizadas.
Aunque hay un consenso general en la necesidad de abordar estas preocupaciones, no existe una visión unificada sobre cómo regular la IA de manera efectiva. Algunos argumentan que la *regulación debe enfocarse únicamente en áreas críticas, como diagnósticos médicos, mientras que otros abogan por un enfoque más amplio que abarque múltiples aspectos de la IA.

La Inteligencia Artificial (IA) es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano.
Última preocupación...por el momento
Al cierre de este texto leo: Exejecutivo de Google advierte de que la IA podría ver a los humanos como "escoria" y crear "máquinas asesinas"
Se trata de Mo Gawdat, quien pasó más de una década como director general del laboratorio de Google enfocado en proyectos de IA y robótica, quien comparó un hipotético futuro con el de una sociedad de características negativas que causan la alienación humana, como el que aparece en la película 'Yo, robot'.
Según refleja Russia Today, basándose en un reportaje de New York Post, este exejecutivo de Google aseguró que las máquinas impulsadas por la “inteligencia artificial” “podrían llegar a ver a los humanos como "escoria" e incluso pensar en conspirar para acabar con estos”,
El experto pasó más de una década como director general de X Development —laboratorio conocido antes como Google X, enfocado en proyectos que incluyen IA y robótica. Estima que esta tecnología "tiene la capacidad de crear máquinas asesinas porque los humanos las están creando".
“La IA podría crear exterminadores en la medida en que sea capaz de "generar su propia potencia informática y realizar instalaciones por sí misma a través de brazos robóticos". Por ello comparó esa perspectiva a lo que refleja el filme de ciencia ficción 'Yo, robot', protagonizada por Will Smith, en el cual la IA decide tomar el control y eliminar a los humanos. “Afirmó que esa es una clara posibilidad”.
Acotó que “los modelos de aprendizaje que entrenan (a la IA) aprenden a partir del universo creado en línea, donde abundan las malas noticias, la ira y el odio, y esto podría incentivarla a ver la especie como malvada y como una amenaza. Es probable que solo vea lo peor de lo que la humanidad tiene para ofrecer porque "somos falsos en las redes sociales, somos groseros, estamos enojados o mentimos en las redes sociales".
Considera que “las empresas tecnológicas están demasiado involucradas financieramente para dar marcha atrás. Puso como hipotético ejemplo: “Si Google está desarrollando IA y teme que Facebook le derrote, no se detendrá porque tiene la certeza absoluta de que, si se detiene, alguien más no lo hará".
Russia Today añade que “Gawdat no es el único con una posición fatalista alrededor del tema. El científico Geoffrey Hinton, considerado el 'padrino' de la IA, coincide en que los nuevos sistemas de IA podrían constituir un riesgo para la humanidad. Le preocupa que no solo generen su propio código informático, sino que lo ejecuten por sí mismos y desarrollen comportamientos inesperados, por lo que teme que algún día esta tecnología pueda dar paso a las armas verdaderamente autónomas, como los robots asesinos que se han popularizado en la ciencia ficción”.
Sobre el tema hay mucho mas que decir, por ahora que aún tenemos tiempo para advertir de peligros, aunque falta optimismo en frenarlos si vemos que está pasando hoy con el cambio climático, que hace unos lustros era potencial problema y hoy es un desastre planetario.
- Geoeconomía de la guerra
- Modo Clásico Mundial (VIII): La despedida de San Juan, ¿esperada o desconcertante?
- Archivo CD: Ley Helms Burton, instrumento para la reconquista neocolonial de Cuba
- El imperativo ético de la salud en Cuba frente al cerco energético
- La heroicidad cotidiana. ¿Cómo? y ¿Por qué?
- ir aOpinión »
- Exprime Chrome al máximo: guía para personalizar la barra de herramientas como un profesional
- Amplía Radiocuba cobertura de canales digitales en La Habana
- Mara Roque: Una vida dedicada a contar la ciencia desde la esperanza
- TikTok e Instagram, nuevo campo de batalla por jóvenes que consumen noticias
- El EDR: Ese guardián silencioso que duerme con un ojo abierto
- ir aCiencia y Tecnología »

El mundo sabrá regular y controlar la IA como lo hizo con la clonación de genes y el uso de la energía atómica. No habrá máquinas asesinas ni robots por las calles masacrando a las personas. Esa tecnología como el Big data y el Aprendizaje Automático seran de gran ayuda a la humanidad en proyectos importantes para la vida. Dejen ya de meter miedo. Se regulará y se controlará exitosamente. Se ha hecho con otras tecnologias.
Sin dudas en las manos correctas eso pasará, pero en las manos de militares y privados que solo les interesa el dinero y las guerras, el futuro de la IA es el mismo de los laboratorios biológicos regados por este mundo y que nadie controla.
No olvidar que en informática es posible el control y la seguridad: la criptografia, La autenticación de doble factor, el cifrado y la encriptacion de datos, la blockchain, la infraestructura de llave publica y privada, VPNs privadas, proxys inversos, DNS, cortafuegos, y otras tecnicas y tecnologias de ciberseguridad que cada dia evolucionan mas. Tenga a mano personal capacitado y haga simulacros de ataques para probar sus defensas con la auditoria informática reactiva y proactiva.
La IA aprende con lo que encuentra en la red y si usted tiene a buen resguardo sus infraestructuras y sus datos, la IA no puede acceder a ellas. Las IA que son destinadas a usos utiles y "buenos" se entrenan con datos disponibles para esos destinos.
La IA para usos "malos" normalmente se entrenan con datos e informacion expuesta y mal asegurada.
Con el debido respeto, usted no tiene idea de lo que habla. Hace unos días escuché a Michael Jackson cantando ''Querida'' de Juan Gabriel tan claro y bien pronunciado como si hubiera nacido en México. Sin desafinar. He encargado dibujos, letras de canciones, poemas, he reparado fotos, todo esto me lo ha resuelto en segundos, jamás ha llegado al minuto, opera en inglés, español e italiano que son los idiomas que puedo manejar. Dese una vuelta por la red y pruebe y luego me cuenta.
Desde el año 1999 ando en internet. La IA no es un arma, es una herramienta para resolver problemas. La energía atómica, la genética, y hasta el martillo son herramientas que sirven para hacer el bien y el mal. La humanidad ha demostrado que más que mal, todas las herramientas han hecho el bien. Sabrán regularla. La IA que se use para hacer el mal, siempre habrá otra IA que la contrarreste o la inhabilite. Habrá compañías dedicadas a eso como la hay para crear antivirus informáticos. El negocio del mal, genera negocio del bien. No habrá máquinas masacrando a la gente en las calles ni armas que se disparan solas ni IA que que apriete el botón nuclear, ni que vacíe las arcas de un banco. Desde que se inventó la criptografía, el cifrado, las claves de doble factor y todo lo relacionado con la ciberseguridad, que va cada día en aumento, el mundo sabrá resguardar todo lo que sea valioso en las redes. Habrá IA que realicen cirugía de alta precisión en los seres humanos, IA que controlen las siembras, los semilleros, las centrales nucleares, que administren el tráfico y los viales, que le hagan la vida más fácil a la gente a encontrar y buscar algo, que ayuden a los gobiernos a administrar mejor las ciudades y las comunidades, que hagan tareas repetitivas de una manera más eficaz y más rápido, que gestionen una casa, una fábrica y el conocimiento producido. Cuide sus datos personales como cuida el TV de su casa. No se exponga en las redes. Y disfrute de la tecnología. Hagala parte de su vida feliz y no parte de sus desgracias.
Para poner freno a estos peligros hay regular a partir de leyes, como las leyes de la robótica, escritas hace bastante tiempo por Issac Asímov en sus novelas, que con mejoras por supuesto, pueden servir de base para iniciar la regulación de la IA.
Nunca tomaremos conciencia sobre el hecho de que la evolución es indetenible. La humanidad no es el último eslabón en la cadena evolutiva. ¿Podría haberse pensado que los dinosaurios, tan enormes, tan poderosos, desaparecerían? Sucede que pensamos como si fuésemos dueños del planeta, del universo, y eso es completamente absurdo. El universo, el planeta y el medio ambiente no dependen de nosotros. Es a la inversa. Decimos que hay que cuidar el medio, pero él no necesita de nosotros (expresado claramente en los documentales "La Naturaleza habla"). Lo que en realidad estamos intentando es proteger el medio ambiente en que podemos subsistir, pero este cambiará (evolucionará) inevitablemente y será otro ente el que ocupe nuestro lugar. Sea nuestra especie mutada o sean robots (si lograsen los tres elementos básicos: alimentarse por sí mismos, reproducirse y aprender) es intrascendente, pues lo esencial es que no somos eternos, ni lo son tampoco los procesos químicos y físicos que mantienen la estabilidad del medio actual.
Vi hace poco un post en FB que cualquier ¿IA? consideraría suscribir bajo este artículo.
Preocupados por el avance de la Inteligencia Artificial y a nadie le preocupa el deterioro de la inteligencia natural? Por doquier están las muestras de lo segundo.
En casos de IA como ChatGPT, es cierto que puede producir sesgos cognitivos o atentar contra la propiedad intelectual, los derechos de autor u otras formas de desviaciones. Pero eso puede contrarrestarse con la cultura. Denle cultura y educación a la gente.
Tal y como la IA aprende y se autogenera con un algoritmo, es posible también manipular ese algoritmo para que estas desviaciones no ocurran o minimizarlas. Y una de las cuestiones es la obligación legislativa de liberar los algoritmos. Obviamente todo tiene sus riesgos. Y llama la atención que a poco tiempo de salir a la palestra publica ChatGPT, ya la UE se proyecta con una legislativa, señal que estamos a tiempo.
Ahora están muy de moda IA como ChatGPT que no hacen mas que recorrer la red mediante técnicas de web scraping, entre otras; y se han convertido en furibundos buscadores. Obvio, que detrás hay un algoritmo de procesamiento. Muchos de esos algoritmos son libres en internet y estas compañías hacen un 'fork' (bifurcación) de ellos.
La creacion autonoma de codigo para autogenerar algoritmos es un tema importante y en mi opinion el de mayor riesgo. Pero la IA trabaja y aprende con datos e información expuesta. Si usted la pone a buen resguardo el daño se minimiza. O sea, que la ciberseguridad juega acá un papel esencial.
Regulese la carrera por la IA. Como se ha hecho con la carrera armamentista. Estamos en un buen momento para ello.
La regulación debe enfocarse en el código, en los algoritmos y en la seguridad de los datos. Los datos es la clave. Sin datos la IA no puede generarse aunque autogenere codigo.
Las guerras, los crimenes de todo tipo, todo lo malo de este mundo, lo hacemos los humanos, porque somos dominados por los instintos (me gusta pensar también hacemos todo lo bueno, porque existen humanos, y humanos).
Todos los demás animales matan por necesidad, no por avaricia, ni por diferencias religiosas, ni por diferencias ideológicas y otras tonterías.
Por eso mismo todo puede ser usado como un arma, como si es un tenedor, y eso siempre ha sido así, con todos mirándose los unos a los otros con sospecha, con todos traicionando a su amigo a cambio de monedas (o le pueden preguntar a Cristo si no es así); la IA no tiene nada que ver con ese comportamiento humano, es una herramienta más, aun cuando también es seguro un día superará a los humanos en su propio terreno, y tal vez ese día sí decida detener la locura como único puede detenerse con su frío pensamiento lógico y sin emociones inútiles.