Sáb. Abr 27th, 2024

La regulación de la inteligencia artificial ha sido un tema candente en Washington en los últimos meses, con legisladores celebrando audiencias y conferencias de prensa y la Casa Blanca anunciando el viernes compromisos voluntarios de seguridad de IA por parte de siete empresas tecnológicas.

Pero una mirada más cercana a la actividad plantea preguntas sobre la relevancia de las acciones para dar forma a la política en torno a la tecnología que cambia rápidamente.

La respuesta es que todavía no es muy significativo. Estados Unidos está solo al comienzo de lo que probablemente será un camino largo y difícil para crear reglas sobre IA, han dicho legisladores y expertos en políticas. Si bien ha habido audiencias, reuniones con altos ejecutivos de tecnología de la Casa Blanca y discursos para presentar proyectos de ley de IA, es demasiado pronto para predecir incluso los bocetos más aproximados de las regulaciones destinadas a proteger a los consumidores y contener los riesgos que la tecnología representa para los trabajos, la propagación de información errónea y la seguridad.

«Todavía es pronto y nadie sabe cómo será la ley», dijo Chris Lewis, presidente del grupo de consumidores Public Knowledge, que ha pedido la creación de una agencia independiente para regular la IA y otras empresas tecnológicas.

Estados Unidos sigue muy por detrás de Europa, donde los legisladores se preparan para promulgar una ley de inteligencia artificial este año que impondría nuevas restricciones sobre lo que se considera los usos más riesgosos de la tecnología. Por el contrario, sigue habiendo mucho desacuerdo en los Estados Unidos sobre la mejor manera de manejar una tecnología que muchos legisladores estadounidenses todavía están tratando de resolver.

Eso se adapta a muchas empresas de tecnología, dijeron expertos en políticas. Si bien algunas empresas han dicho que dan la bienvenida a las reglas de IA, también se han opuesto a regulaciones estrictas similares a las creadas en Europa.

Aquí hay una descripción general del estado de las regulaciones de IA en los Estados Unidos.

La administración Biden ha estado en una gira de escucha acelerada con empresas de inteligencia artificial, académicos y grupos de la sociedad civil. El esfuerzo comenzó en mayo cuando la vicepresidenta Kamala Harris se reunió en la Casa Blanca con los directores ejecutivos de Microsoft, Google, OpenAI y Anthropic e instó a la industria tecnológica a tomarse la seguridad más en serio.

El viernes, representantes de siete empresas de tecnología se presentaron en la Casa Blanca para anunciar un conjunto de principios destinados a hacer que sus tecnologías de IA sean más seguras, incluidos controles de seguridad de terceros y marcas de agua de contenido generado por IA para ayudar a detener la propagación de información errónea.

Muchas de las prácticas anunciadas ya estaban en marcha en OpenAI, Google y Microsoft, o estaban a punto de entrar en vigor. No representan nuevas regulaciones. Las promesas de autorregulación tampoco han cumplido las expectativas de los grupos de consumidores.

«Las promesas voluntarias no son suficientes cuando se trata de Big Tech», dijo Caitriona Fitzgerald, subdirectora del Electronic Privacy Information Center, un grupo de privacidad. «El Congreso y los reguladores federales deben implementar salvaguardas significativas y exigibles para garantizar que el uso de la IA sea justo, transparente y proteja la privacidad y los derechos civiles de las personas».

El otoño pasado, la Casa Blanca presentó un Plan para una Declaración de derechos de IA, un conjunto de pautas para proteger a los consumidores con tecnología. Las pautas tampoco son reglamentos y no se pueden hacer cumplir. Esta semana, los funcionarios de la Casa Blanca dijeron que estaban trabajando en una orden ejecutiva sobre IA, pero no revelaron detalles ni un cronograma.

El redoble más fuerte sobre la regulación de la IA ha venido de los legisladores, algunos de los cuales han presentado proyectos de ley de tecnología. Sus propuestas incluyen la creación de una agencia para supervisar la IA, la responsabilidad de las tecnologías de IA que difunden información errónea y la exigencia de licencias para nuevas herramientas de IA.

Los legisladores también celebraron audiencias sobre IA, incluida una audiencia en mayo con Sam Altman, director ejecutivo de OpenAI, que fabrica el chatbot ChatGPT. Algunos legisladores propusieron ideas para otras regulaciones durante las audiencias, incluidas las etiquetas de nutrición para informar a los consumidores sobre los riesgos de la IA.

Los proyectos de ley están en pañales y hasta el momento carecen de apoyo para seguir adelante. El mes pasado, el líder del Senado, Chuck Schumer, un demócrata de Nueva York, anunció un proceso de un mes para crear una legislación de IA que incluía sesiones de capacitación para los miembros en el otoño.

“En muchos sentidos, estamos comenzando desde cero, pero creo que el Congreso está a la altura del desafío”, dijo en un discurso en ese momento en el Centro de Estudios Estratégicos e Internacionales.

Los reguladores están comenzando a tomar medidas al monitorear algunos problemas que emanan de la IA

La semana pasada, la Comisión Federal de Comercio abrió una investigación sobre ChatGPT de OpenAI y solicitó información sobre cómo la empresa protege sus sistemas y cómo el chatbot podría dañar a los consumidores al crear información falsa. La presidenta de la FTC, Lina Khan, dijo que cree que la agencia tiene un amplio poder bajo las leyes de protección al consumidor y competencia para vigilar el comportamiento problemático de las empresas de inteligencia artificial.

«Esperar a que el Congreso actúe no es ideal dado el cronograma habitual para la acción del Congreso», dijo Andres Sawicki, profesor de derecho en la Universidad de Miami.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *