A medida que avanza la tecnologรญa, no solo obtenemos mejores celulares o computadoras, sino que tambiรฉn los gobierno adquieren armas mรกs sofisticadas.

Prueba de ello es que el Pentรกgono y la industria de la tecnologรญa militar estรกn avanzando con la iniciativa Replicator, la cual visualiza una futura fuerza en la que se despliegan sistemas totalmente autรณnomos en drones, aviones, embarcaciones y sistemas de defensa, conectados a travรฉs de una computadora central para sincronizar y comandar unidades.

En este sentido, a finales de agosto, la subsecretaria de Defensa, Kathleen Hicks anunciรณ por primera vez Replicator, calificรกndola de iniciativa “revolucionaria” que contrarrestarรก las crecientes ambiciones y la mayor flota de recursos militares de China.

Hicks explicรณ que, si bien los sistemas autรณnomos se han utilizado durante dรฉcadas de alguna forma, como ametralladoras defensivas automรกticas, Replicator estรก diseรฑado para producir enjambres de drones impulsados โ€‹โ€‹por IA y naves voladoras o nadadoras para atacar objetivos.

Replicator utilizarรก los fondos y el personal existentes para desarrollar miles de sistemas autรณnomos en los prรณximos 18 a 24 meses.

Crรฉditos: Jaap Arriens/NurPhoto

Sin embargo, los defensores del control de armas temen que las barreras de seguridad existentes no ofrezcan controles suficientes.

Por ejemplo, algunos crรญticos del proyecto llaman a las armas autรณnomas “robots asesinos” porque funcionan con inteligencia artificial y, tรฉcnicamente, pueden operar de forma independiente para eliminar objetivos sin ayuda humana.

Justamente, este tipo de sistemas rara vez se han visto en acciรณn, y se desconoce en gran medida cรณmo afectarรกn el combate, a lo que se suma que no existen tratados internacionales que regulen su uso.

Entre los principales temores se destaca el de que este tipo de sistemas lleve a cabo misiones no deseadas, como atacar instalaciones nucleares.

Ademรกs, tomar la decisiรณn de ir a la guerra serรก mรกs fรกcil cuanto mรกs dependa el mundo de las armas de IA. Aquรญ se argumenta que los algoritmos no deberรญan quitar vidas humanas porque no pueden comprender su valor y pueden estar sesgados, por ejemplo, apuntando a grupos basados โ€‹โ€‹en la raza.

Para muchos expertos, el cronograma anunciado por Hicks era “muy, muy rรกpido” para una tecnologรญa emergente que puede resultar abrumadora.

Tal vez te interese: El Reino Unido alerta por los peligros de la Inteligencia Artificial

Deja un comentario