Mujeres en la IA: Rachel Coldicutt investiga cómo la tecnología impacta en la sociedad

Para darles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch ha estado publicando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos estos artículos a lo largo del año a medida que continúa el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

En el punto de mira hoy: Raquel Coldicutt es el fundador de Industrias cuidadosas, que investiga el impacto social que la tecnología tiene en la sociedad. Entre sus clientes se incluyen Salesforce y la Real Academia de Ingeniería. Antes de Careful Industries, Coldicutt fue director ejecutivo del grupo de expertos Doteveryone, que también realizó investigaciones sobre cómo la tecnología estaba impactando a la sociedad.

Antes de Doteveryone, pasó décadas trabajando en estrategia digital para empresas como la BBC y la Royal Opera House. Asistió a la Universidad de Cambridge y recibió un honor OBE (Orden del Imperio Británico) por su trabajo en tecnología digital.

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Empecé a trabajar en tecnología a mediados de los 90. Mi primer trabajo tecnológico propiamente dicho fue en Microsoft Encarta en 1997, y antes de eso, ayudé a crear bases de datos de contenido para libros de referencia y diccionarios. Durante las últimas tres décadas, he trabajado con todo tipo de tecnologías nuevas y emergentes, por lo que es difícil precisar el momento preciso en el que “me metí en la IA” porque he estado utilizando procesos y datos automatizados para impulsar decisiones, crear experiencias, y producir obras de arte desde la década de 2000. En cambio, creo que la pregunta probablemente sea: “¿Cuándo se convirtió la IA en el conjunto de tecnologías de las que todo el mundo quería hablar?” y creo que la respuesta probablemente sea alrededor de 2014, cuando Google adquirió DeepMind; ese fue el momento en el Reino Unido en el que la IA superó a todo lo demás, a pesar de que muchas de las tecnologías subyacentes que ahora llamamos “IA” eran cosas que ya estaban bastante en uso. uso común.

Empecé a trabajar en tecnología casi por accidente en la década de 1990, y lo que me ha mantenido en este campo a través de muchos cambios es el hecho de que está lleno de contradicciones fascinantes: me encanta lo enriquecedor que puede ser aprender nuevas habilidades y hacer cosas. Estoy fascinado por lo que podemos descubrir a partir de datos estructurados y felizmente podría pasar el resto de mi vida observando y entendiendo cómo las personas crean y dan forma a las tecnologías que utilizamos.

¿De qué trabajo estás más orgulloso en el campo de la IA?

Gran parte de mi trabajo en IA se ha centrado en la formulación de políticas y evaluaciones de impacto social, trabajando con departamentos gubernamentales, organizaciones benéficas y todo tipo de empresas para ayudarlos a utilizar la IA y la tecnología relacionada de manera intencional y confiable.

En la década de 2010, dirigí Doteveryone, un grupo de expertos en tecnología responsable, que ayudó a cambiar el marco de cómo los formuladores de políticas del Reino Unido piensan sobre la tecnología emergente. Nuestro trabajo dejó claro que la IA no es un conjunto de tecnologías sin consecuencias, sino algo que tiene implicaciones difusas en el mundo real para las personas y las sociedades. En particular, estoy muy orgulloso de la libertad Herramienta de escaneo de consecuencias desarrollamos, que ahora utilizan equipos y empresas de todo el mundo, ayudándoles a anticipar los impactos sociales, ambientales y políticos de las decisiones que toman cuando lanzan nuevos productos y funciones.

Más recientemente, el 2023 Foro IA y Sociedad Fue otro momento de orgullo. En el período previo al Foro de Seguridad de la IA dominado por la industria del gobierno del Reino Unido, mi equipo en Care Trouble convocó y organizó rápidamente una reunión de 150 personas de toda la sociedad civil para defender colectivamente que es posible hacer que la IA funcione para 8 mil millones de personas. , no sólo 8 multimillonarios.

¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?

Como relativamente veterano en el mundo de la tecnología, siento que algunos de los avances que hemos logrado en la representación de género en la tecnología se han perdido en los últimos cinco años. Una investigación del Instituto Turing muestra que menos del 1% de la inversión realizada en el sector de la IA se ha realizado en nuevas empresas lideradas por mujeres, mientras que las mujeres todavía representan sólo una cuarta parte de la fuerza laboral tecnológica general. Cuando asisto a conferencias y eventos de IA, la mezcla de género (particularmente en términos de quién obtiene una plataforma para compartir su trabajo) me recuerda a principios de la década de 2000, lo que me parece realmente triste e impactante.

Puedo navegar por las actitudes sexistas de la industria tecnológica porque tengo el enorme privilegio de poder fundar y dirigir mi propia organización: pasé gran parte de mi carrera temprana experimentando sexismo y acoso sexual a diario, lidiando con eso impide hacer un gran trabajo y es un costo de entrada innecesario para muchas mujeres. En cambio, he priorizado la creación de una empresa feminista donde, colectivamente, nos esforzamos por lograr equidad en todo lo que hacemos, y mi esperanza es que podamos demostrar que otras formas son posibles.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

No sienta que tiene que trabajar en un campo de “temas de mujeres”, no se deje intimidar por las exageraciones y busque pares y forje amistades con otras personas para tener una red de apoyo activa. Lo que me ha mantenido adelante todos estos años es mi red de amigos, antiguos colegas y aliados: nos ofrecemos apoyo mutuo, un suministro interminable de charlas de ánimo y, a veces, un hombro sobre el que llorar. Sin eso, puede sentirse muy solo; A menudo vas a ser la única mujer en la habitación, por lo que es vital tener un lugar seguro al que recurrir para descomprimirte.

En cuanto tengas la oportunidad, contrata bien. No repliques estructuras que hayas visto ni consolides las expectativas y normas de una industria elitista y sexista. Desafía el status quo cada vez que contratas y apoya a tus nuevos empleados. De esa manera, podrás empezar a construir una nueva normalidad, estés donde estés.

Y busque el trabajo de algunas de las grandes mujeres que fueron pioneras en la investigación y la práctica de la IA: comience leyendo el trabajo de pioneras como Abeba Birhane, Timnit Gebru y Joy Buolamwini, quienes han producido investigaciones fundamentales que han dado forma a nuestra comprensión de cómo funciona la IA. cambia e interactúa con la sociedad.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

La IA es un intensificador. Puede parecer que algunos de los usos son inevitables, pero como sociedades, debemos estar empoderados para tomar decisiones claras sobre qué vale la pena intensificar. En este momento, lo principal que está logrando el aumento del uso de la IA es aumentar el poder y los saldos bancarios de un número relativamente pequeño de directores ejecutivos masculinos y parece poco probable que [it] está dando forma a un mundo en el que muchas personas quieren vivir. Me encantaría ver a más personas, particularmente en la industria y en la formulación de políticas, involucrarse en las preguntas de cómo es una IA más democrática y responsable y si es posible.

Los impactos climáticos de la IA (el uso de agua, energía y minerales críticos) y los impactos en la salud y la justicia social de las personas y comunidades afectadas por la explotación de los recursos naturales deben encabezar la lista del desarrollo responsable. El hecho de que los LLM, en particular, consuman tanta energía habla del hecho de que el modelo actual no es adecuado para su propósito; En 2024, necesitamos innovación que proteja y restaure el mundo natural, y es necesario eliminar los modelos y formas de trabajo extractivos.

También debemos ser realistas acerca de los impactos de la vigilancia de una sociedad más informatizada y el hecho de que, en un mundo cada vez más volátil, cualquier tecnología de propósito general probablemente se utilizará para horrores inimaginables en la guerra. Todos los que trabajan en IA deben ser realistas acerca de la asociación histórica y duradera de la I+D en tecnología con el desarrollo militar; Necesitamos defender, apoyar y exigir innovación que comience y sea gobernada por las comunidades para obtener resultados que fortalezcan a la sociedad y no conduzcan a una mayor destrucción.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Además de la extracción ambiental y económica que está integrada en muchos de los modelos tecnológicos y comerciales de IA actuales, es realmente importante pensar en los impactos cotidianos del mayor uso de la IA y lo que eso significa para las interacciones humanas cotidianas.

Si bien algunos de los problemas que han aparecido en los titulares han estado relacionados con riesgos más existenciales, vale la pena estar atento a cómo las tecnologías que utilizas te ayudan y obstaculizan a diario: qué automatizaciones puedes desactivar y solucionar, cuáles ofrecen beneficio real, y ¿dónde puedes votar con tus pies como consumidor para argumentar que realmente quieres seguir hablando con una persona real, no con un robot? ¡No necesitamos conformarnos con una automatización de mala calidad y deberíamos unirnos para pedir mejores resultados!

¿Cuál es la mejor manera de construir IA de manera responsable??

La IA responsable comienza con buenas decisiones estratégicas: en lugar de simplemente lanzarle un algoritmo y esperar lo mejor, es posible ser intencional sobre qué automatizar y cómo. He estado hablando de la idea de “Suficiente Internet” durante algunos años y me parece una idea realmente útil para guiar nuestra forma de pensar sobre la creación de cualquier tecnología nueva. En lugar de traspasar los límites todo el tiempo, ¿podemos construir IA de manera que maximice los beneficios para las personas y el planeta y minimice los daños?

hemos desarrollado un proceso robusto por esto en Careful Trouble, donde trabajamos con juntas directivas y equipos de alto nivel, comenzando por mapear cómo la IA puede y no puede respaldar su visión y valores; comprender dónde los problemas son demasiado complejos y variables para mejorar mediante la automatización, y dónde generará beneficios; y, por último, desarrollar un marco activo de gestión de riesgos. El desarrollo responsable no es una aplicación única de un conjunto de principios, sino un proceso continuo de seguimiento y mitigación. El despliegue continuo y la adaptación social significan que la garantía de calidad no puede ser algo que finalice una vez que se envía un producto; Como desarrolladores de IA, debemos desarrollar la capacidad de detección social iterativa y tratar el desarrollo y la implementación responsables como un proceso vivo.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Haciendo inversiones más pacientes, respaldando a fundadores y equipos más diversos y no buscando retornos exponenciales.

Fuente