Mujeres en la IA: Allison Cohen sobre la creación de proyectos de IA responsables

Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Allison Cohen es gerente senior de proyectos de IA aplicada en Mila, una comunidad con sede en Quebec de más de 1200 investigadores especializados en IA y aprendizaje automático. Trabaja con investigadores, científicos sociales y socios externos para implementar proyectos de IA socialmente beneficiosos. La cartera de trabajo de Cohen incluye una herramienta que detecta la misoginia, una aplicación para identificar la actividad en línea de presuntas víctimas de trata de personas y una aplicación agrícola para recomendar prácticas agrícolas sostenibles en Ruanda.

Anteriormente, Cohen fue codirector del descubrimiento de fármacos de IA en la Asociación Global sobre Inteligencia Artificial, una organización para guiar el desarrollo y uso responsable de la IA. También se desempeñó como consultora de estrategia de IA en Deloitte y consultora de proyectos en el Centro de Política Digital Internacional, un grupo de expertos canadiense independiente.

Preguntas y respuestas

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Darme cuenta de que podíamos modelar matemáticamente todo, desde reconocer rostros hasta negociar acuerdos comerciales, cambió mi forma de ver el mundo, que es lo que hizo que la IA fuera tan atractiva para mí. Irónicamente, ahora que trabajo en IA, veo que no podemos (y en muchos casos no deberíamos) capturar este tipo de fenómenos con algoritmos.

Estuve expuesto a este campo mientras completaba una maestría en asuntos globales en la Universidad de Toronto. El programa fue diseñado para enseñar a los estudiantes a navegar por los sistemas que afectan el orden mundial, desde macroeconomía hasta derecho internacional y psicología humana. Sin embargo, a medida que aprendí más sobre la IA, reconocí lo vital que sería para la política mundial y lo importante que era educarme sobre el tema.

Lo que me permitió incursionar en este campo fue un concurso de redacción de ensayos. Para el concurso, escribí un artículo que describía cómo las drogas psicodélicas ayudarían a los humanos a seguir siendo competitivos en un mercado laboral plagado de IA, lo que me calificó para asistir al Simposio de St. Gallen en 2018 (era un artículo de escritura creativa). Mi invitación y posterior participación en ese evento me dieron la confianza para continuar con mi interés en el campo.

¿De qué trabajo estás más orgulloso en el campo de la IA?

Uno de los proyectos que administré implicó la construcción de un conjunto de datos que contenía casos de expresiones sutiles y abiertas de prejuicios contra las mujeres.

Para este proyecto, fue crucial dotar de personal y gestionar un equipo multidisciplinario de expertos en procesamiento del lenguaje natural, lingüistas y especialistas en estudios de género durante todo el ciclo de vida del proyecto. Es algo de lo que estoy bastante orgulloso. Aprendí de primera mano por qué este proceso es fundamental para crear aplicaciones responsables y también por qué no se hace lo suficiente: ¡es un trabajo duro! Si puede apoyar a cada una de estas partes interesadas en la comunicación efectiva entre disciplinas, puede facilitar un trabajo que combine tradiciones de décadas de las ciencias sociales y desarrollos de vanguardia en informática.

También estoy orgulloso de que este proyecto haya sido bien recibido por la comunidad. Uno de nuestros artículos obtuvo un reconocimiento destacado en el taller sobre modelado de lenguaje socialmente responsable en una de las principales conferencias de IA, NeurIPS. Además, este trabajo inspiró un proceso interdisciplinario similar que fue dirigido por AI Sueciaque adaptó la obra para adaptarla a las nociones y expresiones de misoginia suecas.

¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?

Es lamentable que en una industria tan vanguardista todavía veamos dinámicas de género problemáticas. No sólo afecta negativamente a las mujeres: todos estamos perdiendo. Me inspiré bastante en un concepto llamado “teoría del punto de vista feminista” que aprendí en el libro de Sasha Costanza-Chock, “Design Justice”. \

La teoría afirma que las comunidades marginadas, cuyos conocimientos y experiencias no se benefician de los mismos privilegios que otras, tienen una conciencia del mundo que puede generar un cambio justo e inclusivo. Por supuesto, no todas las comunidades marginadas son iguales, ni tampoco lo son las experiencias de los individuos dentro de esas comunidades.

Dicho esto, una variedad de perspectivas de esos grupos es fundamental para ayudarnos a navegar, desafiar y desmantelar todo tipo de desafíos e inequidades estructurales. Es por eso que no incluir a las mujeres puede mantener el campo de la IA excluyente para un sector aún más amplio de la población, reforzando la dinámica de poder también fuera del campo.

En términos de cómo he manejado una industria dominada por hombres, he encontrado que los aliados son bastante importantes. Estos aliados son producto de relaciones sólidas y de confianza. Por ejemplo, he sido muy afortunada de tener amigos como Peter Kurzwelly, quien compartió su experiencia en podcasting para apoyarme en la creación de un podcast dirigido y centrado en mujeres llamado “El mundo que estamos construyendo”. Este podcast nos permite elevar el trabajo de aún más mujeres y personas no binarias en el campo de la IA.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

Encuentra una puerta abierta. No tiene que ser remunerado, no tiene que ser una carrera y ni siquiera tiene que estar alineado con sus antecedentes o experiencia. Si puedes encontrar una oportunidad, puedes usarla para perfeccionar tu voz en el espacio y construir a partir de ahí. Si es voluntario, délo todo: le permitirá destacarse y, con suerte, recibir un pago por su trabajo lo antes posible.

Por supuesto, poder ser voluntario es un privilegio, algo que también quiero reconocer.

Cuando perdí mi trabajo durante la pandemia y el desempleo estaba en su punto más alto en Canadá, muy pocas empresas buscaban contratar talentos de IA, y las que contrataban no buscaban estudiantes de asuntos globales con ocho meses de experiencia en consultoría. . Mientras solicitaba empleo, comencé a trabajar como voluntario en una organización de ética de IA.

Uno de los proyectos en los que trabajé mientras era voluntario trataba sobre si debería haber protección de derechos de autor para el arte producido por IA. Me comuniqué con un abogado de un bufete de abogados canadiense de inteligencia artificial para comprender mejor el espacio. Ella me conectó con alguien en CIFAR, quien me puso en contacto con Benjamin Prud’homme, el director ejecutivo del equipo de IA para la Humanidad de Mila. Es sorprendente pensar que a través de una serie de intercambios sobre el arte de la IA, conocí una oportunidad profesional que desde entonces ha transformado mi vida.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Tengo tres respuestas a esta pregunta que de alguna manera están interconectadas. Creo que tenemos que averiguar:

  1. Cómo conciliar el hecho de que la IA está diseñada para escalarse y al mismo tiempo garantizar que las herramientas que estamos creando se adapten para adaptarse al conocimiento, la experiencia y las necesidades locales.
  2. Si queremos construir herramientas que se adapten al contexto local, necesitaremos incorporar antropólogos y sociólogos en el proceso de diseño de la IA. Pero hay una gran cantidad de estructuras de incentivos y otros obstáculos que impiden una colaboración interdisciplinaria significativa. ¿Cómo podemos superar esto?
  3. ¿Cómo podemos afectar el proceso de diseño aún más profundamente que simplemente incorporando experiencia multidisciplinaria? Específicamente, ¿cómo podemos alterar los incentivos de modo que estemos diseñando herramientas diseñadas para quienes las necesitan con mayor urgencia en lugar de aquellos cuyos datos o negocios son más rentables?

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

La explotación laboral es uno de los temas que no creo que reciba suficiente cobertura. Existen muchos modelos de IA que aprenden a partir de datos etiquetados utilizando métodos de aprendizaje supervisados. Cuando el modelo se basa en datos etiquetados, hay personas que tienen que realizar este etiquetado (es decir, alguien agrega la etiqueta “gato” a una imagen de un gato). Estas personas (anotadores) suelen ser objeto de prácticas de explotación. Para los modelos que no requieren que los datos sean etiquetados durante el proceso de entrenamiento (como es el caso de algunos modelos de IA generativa y otros modelos básicos), los conjuntos de datos aún se pueden construir de manera explotadora en el sentido de que los desarrolladores a menudo no obtienen el consentimiento ni brindan compensación. o crédito a los creadores de los datos.

Recomendaría ver el trabajo de Krystal Kauffman, a quien me alegró mucho ver en esta serie de TechCrunch. Está avanzando en la defensa de los derechos laborales de los anotadores, incluido un salario digno, el fin de las prácticas de “rechazo masivo” y prácticas de participación que se alineen con los derechos humanos fundamentales (en respuesta a acontecimientos como la vigilancia intrusiva).

¿Cuál es la mejor manera de construir IA de manera responsable?

La gente suele recurrir a los principios éticos de la IA para afirmar que su tecnología es responsable. Desafortunadamente, la reflexión ética sólo puede comenzar después de que ya se hayan tomado una serie de decisiones, que incluyen, entre otras:

  1. ¿Qué estás construyendo?
  2. ¿Cómo lo estás construyendo?
  3. ¿Cómo se implementará?

Si espera hasta que se hayan tomado estas decisiones, habrá perdido innumerables oportunidades para desarrollar tecnología responsable.

En mi experiencia, la mejor manera de construir una IA responsable es ser consciente, desde las primeras etapas del proceso, de cómo se define el problema y a qué intereses satisface; cómo la orientación apoya o desafía dinámicas de poder preexistentes; y qué comunidades se verán empoderadas o desempoderadas mediante el uso de la IA.

Si desea crear soluciones significativas, debe navegar cuidadosamente por estos sistemas de poder.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Pregunta por los valores del equipo. Si los valores son definidos, al menos en parte, por la comunidad local y hay un grado de responsabilidad ante esa comunidad, es más probable que el equipo incorpore prácticas responsables.

Fuente