Biden identifica los tres riesgos principales de la inteligencia artificial

  • El presidente de Estados Unidos reclama al Congreso una legislación específica para regular los desarrollos tecnológicos 
Se abre el debate político en Estados Unidos sobre los posibles riesgos de la inteligencia artificial
Se abre el debate político en Estados Unidos sobre los posibles riesgos de la inteligencia artificial |DGG

El presidente de los Estados Unidos, Joe Biden, ha afirmado que todavía está por ver si la inteligencia artificial es peligrosa, remarcando que las empresas de tecnología tienen la responsabilidad de garantizar que sus productos sean seguros antes de hacerlos públicos.

La IA podría ayudar a abordar enfermedades y el cambio climático, pero es igualmente importante abordar los posibles riesgos para la sociedad, la seguridad nacional y la economía, ha asegurado Biden durante la reunión del Consejo de Asesores del Presidente sobre Ciencia y Tecnología (PCAST).

Musk pide una moratoria en el desarrollo de IA hasta que sea regulada, para "calcular sus riesgos"
Musk pide una moratoria en el desarrollo de IA hasta que sea regulada, para "calcular sus riesgos"
Musk pide una moratoria en el desarrollo de IA hasta que sea regulada, para "calcular sus riesgos"

Musk pide una moratoria en el desarrollo de IA hasta que sea regulada, para "calcular sus riesgos"

El presidente dijo que las redes sociales ya han puesto de manifiesto el daño que puede causar una tecnología tan poderosa, incluyendo la salud mental, sin los controles adecuados.

Biden aprovechó la reunión con el PCAST para reclamar de nuevo al Congreso de EE.UU. una legislación de privacidad que ponga límites a la recopilación de datos personales por parte de las tecnología.

El presidente considera además que la normativa debería prohibir la publicidad dirigida a niños y priorizar la salud y la seguridad en el desarrollo de productos.

El año pasado, la administración Biden publicó una "Declaración de derechos" con pautas para que las tecnológicas que desarrollan de sistemas de IA garantizan la protección de los derechos de los usuarios.

UN DEBATE POLÍTICO, JURÍDICO Y SOCIAL

Todo ello cuando el debate sobre la inteligencia artificial se ha convertido en un tema candente en las administraciones y la opinión pública.

La semana pasada, un grupo de expertos en tecnología y empresarios del sector, encabezados por el magnate Elon Musk, publicaron una carta abierta pidiendo una moratoria en el desarrollo de sistemas avanzados de IA. En concreto citaban GPT-4, el último desarrollo del Chat-GPT de OpenAI.

Italia bloquea el uso de ChatGPT por no respetar la legislación de datos
Italia bloquea el uso de ChatGPT por no respetar la legislación de datos
Italia bloquea el uso de ChatGPT por no respetar la legislación de datos

Italia bloquea el uso de ChatGPT por no respetar la legislación de datos

En Europa, Italia ha tomado la iniciativa bloqueando "con efecto inmediato" ChatGPT, acusándola de no respetar la ley de protección de datos de los consumidores.

La regulación de la inteligencia artificial se encuentra en fase de debate en la Unión Europea, pero pasarán al menos un par de años hasta que se apruebe una normativa, un periodo al que habrá que sumar las adaptación de la directiva a la legislación de cada país.