Las principales empresas de tecnología, incluyendo Google, Meta (anteriormente Facebook), Amazon y Microsoft, han acordado cumplir con un conjunto de salvaguardias de Inteligencia Artificial (IA). Estas medidas buscan garantizar que los productos de IA sean seguros antes de su lanzamiento y abordan preocupaciones sobre el uso de la IA para crear contenido engañoso y diseminación de desinformación.
Las principales empresas tecnológicas que lideran el desarrollo de la Inteligencia Artificial han acordado cumplir con un conjunto de salvaguardias de IA negociadas por la administración del presidente Joe Biden. Estas medidas buscan abordar las preocupaciones sobre la seguridad y el uso ético de la IA.
Salvaguardias de IA para productos seguros
El gobierno de Estados Unidos anunció que ha asegurado compromisos voluntarios de siete compañías estadounidenses, incluyendo Google, Meta (anteriormente Facebook), Amazon y Microsoft, para garantizar que sus productos de IA sean seguros antes de su lanzamiento. Estas compañías, junto con OpenAI, Anthropic e Inflection, han acordado someter sus sistemas de IA a pruebas de seguridad realizadas en parte por expertos independientes para evitar riesgos significativos, como problemas de ciberseguridad y bioseguridad. La intención es proteger contra la capacidad de la IA de generar contenido engañoso y deepfakes, entre otros peligros.
Transparencia y responsabilidad
Las empresas también se han comprometido a informar públicamente sobre las vulnerabilidades y riesgos en sus tecnologías, incluyendo sus efectos sobre la imparcialidad y el sesgo. Además, utilizarán marcas de agua digitales para ayudar a distinguir entre imágenes generadas por IA y fotografías auténticas, lo que puede ser crucial para abordar la propagación de deepfakes.
Hacia una regulación más sólida
Si bien estas medidas son voluntarias, el objetivo es abordar los riesgos inmediatos de la IA mientras se avanza hacia una regulación más sólida a nivel legislativo. El líder de la mayoría del Senado, Chuck Schumer, ha expresado su intención de presentar legislación para regular la IA. La Administración Biden ha estado trabajando con funcionarios del gobierno y líderes de empresas tecnológicas para abordar la regulación de la IA de manera responsable y equitativa.
Reacciones y preocupaciones
Mientras algunos ven estos compromisos como un paso en la dirección correcta, otros argumentan que se necesita más para responsabilizar a las empresas y sus productos de IA. James Steyer, fundador y CEO de Common Sense Media, destaca que la historia ha demostrado que muchos gigantes tecnológicos no cumplen realmente con sus promesas voluntarias de actuar de manera responsable.
Además, algunas voces advierten sobre el riesgo de que la regulación propuesta favorezca a las grandes empresas tecnológicas como Google, Microsoft y OpenAI, desplazando a competidores más pequeños que enfrentarían altos costos para cumplir con las restricciones normativas. Se busca encontrar un equilibrio entre la protección contra riesgos y la promoción de la innovación en el campo de la IA.
Regulación global de la IA
A nivel mundial, otros países también están considerando la regulación de la IA. Por ejemplo, la Unión Europea ha estado negociando reglas de IA para sus 27 naciones miembro. Mientras tanto, el Secretario General de las Naciones Unidas, Antonio Guterres, ha propuesto la creación de un organismo de la ONU para respaldar los esfuerzos globales en la gobernanza de la IA, tomando inspiración en modelos exitosos como el Organismo Internacional de Energía Atómica o el Panel Intergubernamental sobre Cambio Climático.
Te puede interesar: Regular la Inteligencia Artificial: una nueva preocupación para los Estados Unidos