Mujeres en la IA: Miriam Vogel destaca la necesidad de una IA responsable

Para darles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch ha estado publicando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos estos artículos a lo largo del año a medida que continúa el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Miriam Vogel es la directora ejecutiva de EqualAI, una organización sin fines de lucro creada para reducir los prejuicios inconscientes en la IA y promover una gobernanza responsable de la IA. También se desempeña como presidenta del Comité Asesor Nacional de IA recientemente creado, con el mandato del Congreso de asesorar al presidente Joe Biden y a la Casa Blanca sobre la política de IA, y enseña derecho y políticas tecnológicas en el Centro de Derecho de la Universidad de Georgetown.

Vogel anteriormente se desempeñó como fiscal general adjunto en el Departamento de Justicia, asesorando al fiscal general y al fiscal general adjunto sobre una amplia gama de cuestiones legales, políticas y operativas. Como miembro de la junta del Responsible AI Institute y asesor principal del Centro para la Democracia y la Tecnología, Vogel’s asesoró a los líderes de la Casa Blanca en iniciativas que van desde políticas de mujeres, económicas, regulatorias y de seguridad alimentaria hasta cuestiones de justicia penal.

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Comencé mi carrera trabajando en el gobierno, inicialmente como pasante en el Senado, el verano antes del 11º grado. Me enamoré de la política y pasé los siguientes veranos trabajando en el Congreso y luego en la Casa Blanca. Mi atención en ese momento estaba en los derechos civiles, que no es el camino convencional hacia la inteligencia artificial, pero mirando hacia atrás, tiene mucho sentido.

Después de la escuela de derecho, mi carrera avanzó desde un abogado de entretenimiento especializado en propiedad intelectual hasta dedicarme al trabajo de derechos civiles e impacto social en el poder ejecutivo. Tuve el privilegio de liderar el grupo de trabajo sobre igualdad salarial mientras servía en la Casa Blanca y, mientras servía como fiscal general adjunta adjunta bajo la ex fiscal general adjunta Sally Yates, dirigí la creación y el desarrollo de capacitación sobre prejuicios implícitos para las fuerzas del orden federales. .

Me pidieron que dirigiera EqualAI en función de mi experiencia como abogado en tecnología y mi experiencia en políticas que abordan los prejuicios y los daños sistemáticos. Me atrajo esta organización porque me di cuenta de que AI presentaba la próxima frontera de los derechos civiles. Sin vigilancia, décadas de progreso podrían deshacerse en líneas de código.

Siempre me han entusiasmado las posibilidades creadas por la innovación y sigo creyendo que la IA puede presentar nuevas e increíbles oportunidades para que más poblaciones prosperen, pero sólo si tenemos cuidado en esta coyuntura crítica para garantizar que más personas puedan participar significativamente en su proceso. creación y desarrollo.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

Fundamentalmente creo que todos tenemos un papel que desempeñar para garantizar que nuestra IA sea lo más eficaz, eficiente y beneficiosa posible. Eso significa asegurarnos de hacer más para apoyar las voces de las mujeres en su desarrollo (que, por cierto, representan más del 85% de las compras en los EE. UU., por lo que garantizar que se incorporen sus intereses y su seguridad es una medida comercial inteligente), ya que así como las voces de otras poblaciones subrepresentadas de diversas edades, regiones, etnias y nacionalidades que no participan lo suficiente.

A medida que trabajamos hacia la paridad de género, debemos asegurarnos de que se consideren más voces y perspectivas para desarrollar una IA que funcione para todos los consumidores, no solo una IA que funcione para los desarrolladores.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

En primer lugar, nunca es demasiado tarde para empezar. Nunca. Animo a todos los abuelos a que intenten utilizar ChatGPT de OpenAI, Copilot de Microsoft o Gemini de Google. Todos vamos a necesitar alfabetizarnos en IA para poder prosperar en lo que se convertirá en una economía impulsada por la IA. ¡Y eso es emocionante! Todos tenemos un papel que desempeñar. Ya sea que esté comenzando una carrera en IA o utilizando IA para respaldar su trabajo, las mujeres deberían probar las herramientas de IA, ver lo que estas herramientas pueden y no pueden hacer, ver si funcionan para ellas y, en general, convertirse en conocedoras de la IA.

En segundo lugar, el desarrollo responsable de la IA requiere algo más que científicos informáticos éticos. Mucha gente piensa que el campo de la IA requiere una licenciatura en informática o algún otro título STEM cuando, en realidad, la IA necesita perspectivas y experiencia de mujeres y hombres de todos los orígenes. ¡Saltar! Se necesita tu voz y tu perspectiva. Su compromiso es crucial.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Primero, necesitamos una mayor alfabetización en IA. En EqualAI somos “positivos netos en IA”, lo que significa que creemos que la IA brindará oportunidades sin precedentes para nuestra economía y mejorará nuestra vida diaria, pero solo si estas oportunidades están igualmente disponibles y son beneficiosas para una mayor parte de nuestra población. Necesitamos nuestra fuerza laboral actual, la próxima generación, nuestros abuelos… todos nosotros — estar equipados con los conocimientos y habilidades necesarios para beneficiarse de la IA.

En segundo lugar, debemos desarrollar medidas y métricas estandarizadas para evaluar los sistemas de IA. Las evaluaciones estandarizadas serán cruciales para generar confianza en nuestros sistemas de IA y permitir que los consumidores, reguladores y usuarios intermedios comprendan los límites de los sistemas de IA con los que interactúan y determinen si ese sistema es digno de nuestra confianza. Comprender para quién está diseñado un sistema y los casos de uso previstos nos ayudará a responder la pregunta clave: ¿Para quién podría fallar esto?

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

La inteligencia artificial es solo eso: artificial. Lo construyen los humanos para “imitar” la cognición humana y empoderarlos en sus actividades. Debemos mantener el grado adecuado de escepticismo y actuar con la debida diligencia al utilizar esta tecnología para garantizar que depositamos nuestra fe en sistemas que merecen nuestra confianza. La IA puede aumentar, pero no reemplazar, a la humanidad.

Debemos permanecer claros sobre el hecho de que la IA consta de dos ingredientes principales: algoritmos (creados por humanos) y datos (que reflejan conversaciones e interacciones humanas). Como resultado, la IA refleja y adapta nuestros defectos humanos. Los prejuicios y los daños pueden arraigarse a lo largo del ciclo de vida de la IA, ya sea a través de algoritmos escritos por humanos o a través de datos que son una instantánea de vidas humanas. Sin embargo, cada punto de contacto humano es una oportunidad para identificar y mitigar el daño potencial.

Debido a que uno solo puede imaginar tan ampliamente como lo permita su propia experiencia y los programas de IA están limitados por las estructuras bajo las cuales se construyen, cuantas más personas con perspectivas y experiencias variadas en un equipo, más probabilidades habrá de que detecten sesgos y otras preocupaciones de seguridad. integrado en su IA.

¿Cuál es la mejor manera de construir IA de manera responsable?

Construir una IA que sea digna de nuestra confianza es toda nuestra responsabilidad. No podemos esperar que alguien más lo haga por nosotros. Debemos comenzar haciendo tres preguntas básicas: (1) ¿Para quién se construyó este sistema de IA (2), cuáles fueron los casos de uso previstos y (3) para quién puede fallar? Incluso con estas preguntas en mente, inevitablemente habrá obstáculos. Para mitigar estos riesgos, los diseñadores, desarrolladores e implementadores deben seguir las mejores prácticas.

En EqualAI, promovemos una buena “higiene de la IA”, que implica planificar su marco y garantizar la responsabilidad, estandarizar las pruebas, la documentación y las auditorías de rutina. También publicamos recientemente una guía para diseñar y poner en funcionamiento un marco de gobernanza responsable de la IA, que describe los valores, principios y el marco para implementar la IA de manera responsable en una organización. El documento sirve como recurso para organizaciones de cualquier tamaño, sector o madurez en medio de la adopción, desarrollo, uso e implementación de sistemas de IA con un compromiso interno y público de hacerlo de manera responsable.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Los inversores tienen un papel enorme a la hora de garantizar que nuestra IA sea segura, eficaz y responsable. Los inversores pueden asegurarse de que las empresas que buscan financiación sean conscientes y piensen en mitigar los posibles daños y responsabilidades en sus sistemas de inteligencia artificial. Incluso plantearse la pregunta: “¿Cómo se han instituido prácticas de gobernanza de la IA?” es un primer paso significativo para garantizar mejores resultados.

Este esfuerzo no sólo es bueno para el bien público; También redunda en beneficio de los inversores, que querrán asegurarse de que las empresas en las que invierten y a las que están afiliados no estén asociadas con malos titulares ni obstaculizadas por litigios. La confianza es uno de los pocos elementos no negociables para el éxito de una empresa, y el compromiso con una gobernanza responsable de la IA es la mejor manera de generar y mantener la confianza pública. Una IA robusta y confiable tiene sentido comercial.

Fuente