Microsoft prohíbe a los departamentos de policía de EE. UU. utilizar una herramienta de inteligencia artificial empresarial

Microsoft ha cambiado su política prohibir a los departamentos de policía de EE. UU. utilizar IA generativa a través del servicio Azure OpenAI, el contenedor totalmente administrado y centrado en la empresa de la compañía en torno a las tecnologías OpenAI.

El lenguaje agregado el miércoles a los términos de servicio del Servicio Azure OpenAI prohíbe que las integraciones con el Servicio Azure OpenAI sean utilizadas “por o para” los departamentos de policía en los EE. UU., incluidas las integraciones con los modelos de análisis de texto y voz de OpenAI.

Un nuevo punto separado cubre “cualquier aplicación de la ley a nivel mundial” y prohíbe explícitamente el uso de “tecnología de reconocimiento facial en tiempo real” en cámaras móviles, como cámaras corporales y cámaras para tablero, para intentar identificar a una persona en situaciones “incontroladas, en el medio”. -Ambientes “salvajes”.

Los cambios en los términos se producen una semana después de que Axon, un fabricante de productos tecnológicos y de armas para militares y fuerzas del orden, anunciara un nuevo producto que aprovecha el modelo de texto generativo GPT-4 de OpenAI para resumir el audio de las cámaras corporales. Los críticos se apresuraron a señalar los peligros potenciales, como las alucinaciones (incluso los mejores modelos de IA generativa actuales inventan hechos) y los prejuicios raciales introducidos a partir de los datos de entrenamiento (lo cual es especialmente preocupante dado que las personas de color son Es mucho más probable que la policía lo detenga. que sus pares blancos).

No está claro si Axon estaba usando GPT-4 a través del servicio Azure OpenAI y, de ser así, si la política actualizada fue en respuesta al lanzamiento del producto de Axon. OpenAI tenía previamente restringido el uso de sus modelos para el reconocimiento facial a través de sus API. Nos comunicamos con Axon, Microsoft y OpenAI y actualizaremos esta publicación si recibimos respuesta.

Los nuevos términos dejan margen de maniobra para Microsoft.

La prohibición total del uso del servicio Azure OpenAI se aplica únicamente a EE. UU., No internacional, policía. Y no cubre el reconocimiento facial realizado con estacionario cámaras en revisado entornos, como una oficina administrativa (aunque los términos prohíben cualquier uso de reconocimiento facial por parte de la policía de EE. UU.).

Esto sigue el reciente enfoque de Microsoft y su socio cercano OpenAI hacia los contratos de defensa y aplicación de la ley relacionados con la IA.

En enero, un informe de Bloomberg reveló que OpenAI está trabajando con el Pentágono en una serie de proyectos que incluyen capacidades de ciberseguridad, una desviación de la prohibición anterior de la startup de proporcionar su IA a los militares. En otros lugares, Microsoft ha propuesto utilizar la herramienta de generación de imágenes de OpenAI, DALL-E, para ayudar al Departamento de Defensa (DoD) a crear software para ejecutar operaciones militares. por La intercepción.

El servicio Azure OpenAI estuvo disponible en el producto Azure Government de Microsoft en febrero, agregando características adicionales de cumplimiento y administración dirigidas a agencias gubernamentales, incluidas las fuerzas del orden. en un entrada en el blogCandice Ling, vicepresidenta senior de la división gubernamental de Microsoft, Microsoft Federal, prometió que el servicio Azure OpenAI sería “presentado para autorización adicional” al Departamento de Defensa para cargas de trabajo que respalden las misiones del Departamento de Defensa.

Microsoft y OpenAI no respondieron de inmediato a las solicitudes de comentarios.

Fuente