Soluciones de negocios
informática, telefonía
Seguridad
24.07.2023 08:40

Compartir con otros:

Compartir

Empresas líderes acuerdan salvaguardas para gestionar la inteligencia artificial

Foto: jcomp en Freepik
Foto: jcomp en Freepik

La Casa Blanca anunció que siete empresas líderes en el campo de la inteligencia artificial se han comprometido a gestionar los riesgos que plantea la nueva tecnología.

Esto incluirá probar la seguridad de la inteligencia artificial y hacer públicos los resultados de esas pruebas.

Representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI se unieron al presidente estadounidense Joe Biden para anunciar la colaboración.

La velocidad a la que las empresas están desarrollando sus herramientas ha alimentado los temores de la difusión de desinformación, especialmente en el período previo a las elecciones presidenciales estadounidenses de 2024.

"Debemos ser claros y estar alerta ante las amenazas que surgen de las tecnologías emergentes que pueden representar, no necesariamente, pero pueden representar, un riesgo para la democracia y nuestros valores", dijo el presidente Joe Biden durante un discurso el viernes.

La semana pasada, Meta, la empresa matriz de Facebook, también anunció su propia herramienta de inteligencia artificial llamada Llama 2.

Como parte del acuerdo firmado el viernes, las empresas y el gobierno de Estados Unidos acordaron:

  • Pruebas de seguridad de sus sistemas de inteligencia artificial por parte de expertos internos y externos antes de su lanzamiento.
  • Garantizar que los humanos puedan notar el contenido de IA mediante la introducción de marcas de agua
  • Informes públicos periódicos sobre las capacidades y limitaciones de la IA
  • Explorar riesgos como el prejuicio, la discriminación y la invasión de la privacidad

El objetivo es facilitar que las personas sepan cuándo el contenido en línea es creado por inteligencia artificial.

Las marcas de agua para el contenido generado por IA estuvieron entre los temas que el Comisario Europeo Thierry Breton discutió con el CEO de OpenAI, Sam Altman, durante una visita a San Francisco en junio.

"Espero continuar nuestras discusiones, particularmente sobre las marcas de agua", escribió Breton en un tweet que incluía un fragmento de un video de él y Altman.

En el vídeo, Altman dijo que "muy pronto me gustaría mostrar" lo que OpenAI está haciendo con las marcas de agua.

Las salvaguardias voluntarias firmadas el viernes son un paso hacia una regulación más estricta de la inteligencia artificial en Estados Unidos.

La Casa Blanca dijo que también trabajaría con aliados para establecer un marco internacional que rija el desarrollo y uso de la inteligencia artificial. Las advertencias sobre la tecnología incluyen que podría usarse para generar desinformación y desestabilizar la sociedad, y que podría representar un riesgo existencial para la humanidad, aunque algunos expertos han dicho que las advertencias apocalípticas son exageradas.

Europa también está preparando su propia ley sobre inteligencia artificial, que se aplicará a todos los que desarrollen e implementen sistemas de inteligencia artificial en la UE. Tiene bastantes similitudes con el nuevo pacto de cooperación americano. El alcance de la regulación depende de los riesgos creados por cada aplicación, desde mínimos hasta "inaceptables". Los sistemas que entran en esta última categoría están completamente prohibidos. Estos incluyen sistemas de reconocimiento facial en tiempo real en espacios públicos, herramientas policiales predictivas y sistemas de puntuación social similares a los de China que asignan a las personas una "puntuación" basada en su comportamiento.

La legislación también establece límites estrictos a las aplicaciones de IA de "alto riesgo", que son aquellas que amenazan con "daños significativos a la salud humana, la seguridad, los derechos fundamentales o el medio ambiente".

Estos incluyen sistemas utilizados para influir en los votantes en las elecciones, así como plataformas de redes sociales con más de 45 millones de usuarios que recomiendan contenido a sus usuarios (una lista que incluiría Facebook, Twitter, Instagram e incluso los Threads más recientes).

La ley también describe los requisitos de transparencia para los sistemas de inteligencia artificial.

Por ejemplo, sistemas como ChatGPT deberían revelar que su contenido ha sido generado por inteligencia artificial, distinguir las imágenes profundamente falsas de las reales y brindar protección contra la creación de contenido ilegal.

La inteligencia artificial ha atraído mucha atención, tanto positiva como negativa. La buena noticia es que los gobiernos y las empresas respondieron temprano a muchas de las preocupaciones del público y comenzaron a regular de manera preventiva.

Imagen de portada: Imagen de jcomp en Freepik


¿Interesado en más sobre este tema?
ChatGPT Facebook menta inteligencia artificial


¿Qué están leyendo los demás?