Internet

Microsoft prohíbe a los departamentos de policía de EE. UU. utilizar una herramienta de inteligencia artificial empresarial para reconocimiento facial

Microsoft ha reafirmado su prohibición a los departamentos de policía de EE. UU. de utilizar inteligencia artificial generativa para reconocimiento facial a través de Azure OpenAI Service, el envoltorio totalmente gestionado y enfocado en empresas alrededor de la tecnología de OpenAI.

El miércoles se agregó un lenguaje a los términos de servicio de Azure OpenAI Service que prohíbe de manera más clara las integraciones con Azure OpenAI Service para ser utilizadas 'por o para' los departamentos de policía para reconocimiento facial en EE. UU., incluidas las integraciones con los modelos de análisis de imágenes actuales y posiblemente futuros de OpenAI.

Un nuevo punto aparte abarca 'cualquier fuerza policial a nivel global', y prohíbe explícitamente el uso de 'tecnología de reconocimiento facial en tiempo real' en cámaras móviles, como cámaras corporales y en tableros de vehículos, para intentar identificar a una persona en entornos 'no controlados, en la naturaleza'.

Los cambios en la política llegaron una semana después de que Axon, fabricante de tecnología y armas para militares y fuerzas del orden, anunciara un nuevo producto que aprovecha el modelo de texto generativo GPT-4 de OpenAI para resumir el audio de las cámaras corporales. Los críticos señalaron rápidamente los posibles peligros, como alucinaciones (incluso los mejores modelos de inteligencia artificial generativa inventan hechos) y sesgos raciales introducidos desde los datos de entrenamiento (lo cual es especialmente preocupante dado que las personas de color tienen muchas más probabilidades de ser detenidas por la policía que sus pares blancos).

No está claro si Axon estaba utilizando GPT-4 a través de Azure OpenAI Service, y, de ser así, si la política actualizada fue en respuesta al lanzamiento del producto de Axon. Anteriormente, OpenAI había restringido el uso de sus modelos para reconocimiento facial a través de sus API. Nos hemos contactado con Axon, Microsoft y OpenAI y actualizaremos esta publicación si recibimos respuesta.

Los nuevos términos dejan margen de maniobra a Microsoft.

La prohibición completa del uso de Azure OpenAI Service se refiere únicamente a los departamentos de policía de EE. UU., no a nivel internacional, y no cubre el reconocimiento facial realizado con cámaras estacionarias en entornos controlados, como una oficina (aunque los términos prohíben cualquier uso de reconocimiento facial por parte de la policía de EE. UU.).

Eso concuerda con el enfoque reciente de Microsoft y su estrecho socio OpenAI en contratos relacionados con inteligencia artificial para la aplicación de la ley y defensa.

En enero, un informe de Bloomberg reveló que OpenAI está trabajando con el Pentágono en varios proyectos, incluidas capacidades de ciberseguridad, un cambio respecto a la prohibición anterior de la startup de proporcionar su inteligencia artificial a los militares. Por otro lado, Microsoft ha propuesto utilizar la herramienta de generación de imágenes de OpenAI, DALL-E, para ayudar al Departamento de Defensa (DoD) a construir software para ejecutar operaciones militares, según The Intercept.

Azure OpenAI Service se volvió disponible en el producto Azure Government de Microsoft en febrero, añadiendo características adicionales de cumplimiento y gestión orientadas hacia las agencias gubernamentales, incluidas las fuerzas del orden. En una publicación de blog, Candice Ling, VP Senior de la división enfocada en el gobierno de Microsoft Federal, prometió que Azure OpenAI Service sería 'sometido a una autorización adicional' al DoD para cargas de trabajo que apoyan las misiones del DoD.

Actualización: Después de la publicación, Microsoft dijo que su cambio original en los términos de servicio contenía un error, y de hecho, la prohibición se aplica únicamente al reconocimiento facial en EE. UU. No es una prohibición general para los departamentos de policía que utilizan el servicio.

Related Articles

Back to top button