Harris dice que organismos federales deben demostrar que sus herramientas de IA no hacen daño a la gente

Harris dice que organismos federales deben demostrar que sus herramientas de IA no hacen daño a la gente
ARCHIVO – La vicepresidenta Kamala Harris habla sobre salud pblica en Raleigh, Carolina del Norte, 26 de marzo de 2024. Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen dao a la gente, o bien dejar de usarlas, segn nuevas normas reveladas por la Casa Blanca el jueves 28 de marzo de 2024. (AP Foto/Matt Kelley, File)
(Matt Kelley / Associated Press)

Harris dice que organismos federales deben demostrar que sus herramientas de IA no hacen dao a la gente

Ciencia y Tecnologa

MATT OBRIEN March 28, 2024

Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen dao a la gente, o bien dejar de usarlas, segn nuevas normas reveladas por la Casa Blanca el jueves.

Cuando los organismos del gobierno utilicen herramientas de IA, les requeriremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense, dijo la vicepresidenta Kamala Harris a la prensa antes del anuncio.

Para diciembre, cada entidad debe tener un conjunto de salvaguardas concretas que guen todo, desde las pantallas de reconocimiento facial en los aeropuertos hasta las herramientas de IA que ayudan a controlar la red elctrica o determinan las hipotecas y seguros de viviendas.

La nueva directiva emitida el jueves a los jefes de los organismos por la Oficina de Administracin y Presupuesto de la Casa Blanca es parte del amplio decreto sobre IA firmado por el presidente Joe Biden en octubre.

Si bien el decreto amplio trata de salvaguardar los sistemas comerciales de IA fabricado por las empresas tecnolgicas lderes, tales como los que activan los chatbots de IA generativa, la directiva del jueves apunta a las herramientas que los organismos emplean desde hace aos para tomar decisiones sobre inmigracin, vivienda, bienestar infantil y una gama de servicios.

Como ejemplo, Harris dijo que si la Administracin de Veteranos quiere usar IA en sus hospitales para ayudar a los mdicos a diagnosticar a los pacientes, debern demostrar ante todo que la IA no produce diagnsticos racialmente prejuiciosos.

Los organismos que no pueden aplicar las salvaguardas deben dejar de usar el sistema de IA a menos que la conduccin pueda explicar por qu hacerlo incrementara los riesgos o derechos en general o creara un obstculo insalvable para sus operaciones cruciales, segn un anuncio de la Casa Blanca.

Hay otros dos requisitos vinculantes, dijo Harris. Uno es que las entidades federales deben contratar un jefe de IA con la experiencia, pericia y autoridad para supervisar todas las tecnologas de IA empleadas por el organismo, dijo Harris. La otra es que cada ao los organismos deben publicar un inventario de sus sistemas de IA que incluya una evaluacin de sus posibles riesgos.

Hay algunas excepciones para las agencias de inteligencia y el Departamento de Defensa, que mantiene un debate particular sobre el uso de armas autnomas.

Leave a Reply

Your email address will not be published. Required fields are marked *