Saltar al contenido

OpenAI cambia de postura y ahora sí que quiere trabajar con el Pentágono

Un militar ensaya con un arma | Pexels

Asusta el hecho que la inteligencia artificial vaya a ser usada para fines militares. Pero ya se estaba haciendo, de eso no cabe duda. El entorno militar siempre va a la vanguardia e investiga sobre aspectos que, más tarde, van a llegar a nuestras vidas. La lista de inventos de los ejércitos de todos los países es tan larga que me podría dedicar a hablar de ello durante todo el día. Bueno, pues ante los temores, más soluciones. 

OpenAI había negado hasta ahora que quisiera prestar su tecnología para investigación militar. Pero se ha tenido que envairnársela. La compañía estadounidense va a colaborar con el Pentágono. Esto ha sido posible después de eliminar en su política de uso las actividades de desarrollo de armas y el uso militar de guerra. El 10 de enero actualizó los términos de uso de ChatGPT y, ahora, dice que su tecnología de chatbot no puede ser utilizada para «hacerte daño a ti mismo o a otros». 

Ese eufemismo es bastante interesante porque recuerda, además, a las tres leyes de la robótica que aparecen en la película “Yo, robot”. En los nuevos requerimientos, el uso militar y la guerra ya no están incluidos. Anna Makanju, vicepresidenta de asuntos globales de OpenAI, apuntó en el Foro Económico Mundial de Davos (Suiza) que la empresa ya está trabajando con el Pentágono en software de ciberseguridad de código abierto y está en conversaciones sobre cómo podría ayudar a prevenir el suicidio de veteranos.

El cambio, informado por primera vez por “The Intercept, prepara a la empresa pionera de la inteligencia artificial para ir tras lucrativos contratos militares. Microsoft, que cuenta con una importante inversión sobre OpenAI, ya trabaja estrechamente con el Pentágono en varios proyectos, incluyendo un contrato de varios años de servicios en la nube por valor de 9 mil millones de dólares que se reparte entre Microsoft, Google, Amazon y Oracle.

La política de OpenAI todavía no permite que sus herramientas sean utilizadas para hacer daño a las personas o desarrollar armas. Sin embargo, hay potencialmente «casos de uso de seguridad nacional» que se alinean con la misión de la empresa, como el software de ciberseguridad de código abierto, según OpenAI. «No estaba claro si estos casos de uso beneficiosos habrían sido permitidos bajo «militar» en nuestras políticas anteriores», dijo un portavoz de OpenAI en un comunicado a “The Messenger”. «Así que el objetivo con nuestra actualización de política es proporcionar claridad y la capacidad de tener estas discusiones».

En mayo, Sam Altman fue uno de los 350 líderes tecnológicos que firmaron una declaración de una sola frase que decía: «Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos de escala social como las pandemias y la guerra nuclear». Los empleados de OpenAI podrían influir potencialmente en la empresa en el tipo de proyectos militares que asume. Los trabajadores de la tecnología de Google, Amazon y Microsoft se han resistido previamente a trabajar en proyectos de IA para el ejército. En 2018, los trabajadores de Google obligaron finalmente a la empresa a abandonar su contrato para trabajar en el desarrollo de visión por computadora para ataques con drones. 

El anuncio de OpenAI se produce en un momento en que la competencia por la IA entre Estados Unidos y China se intensifica. Algunos expertos han advertido sobre los riesgos de una carrera armamentista de IA que podría conducir a escenarios catastróficos o inestables. Otros han argumentado que la IA podría ser una fuerza para el bien y la paz si se utiliza de forma responsable y equitativa.


Ahora CHATGPT es mejor siendo gratuito: trucos para aprovecharlo

Te enseñamos a aplicar las capacidades de GPT 4o, el nuevo modelos de lenguaje de OpenAI que es grat…

Voces sensuales, la sumisión se quiere apoderar de la IA

A pesar de los esfuerzos, el desarrollo de los sistemas basados en inteligencia artificial continúan…

Scarlett Johansson, OpenAI y el problema de la IA

OpenAI retira una voz empleada para su nuevo modelo ChatGPT-4o por su parecido con la de la actriz S…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *