This Viral AI Chatbot Will Lie and Say It’s Human

A finales de abril apareció un anuncio en vídeo de una nueva empresa de inteligencia artificial. viral En X. Una persona se encuentra frente a una valla publicitaria en San Francisco, con el teléfono inteligente extendido, llama al número de teléfono que aparece en la pantalla y mantiene una breve conversación con un robot que parece increíblemente humano. El texto de la valla publicitaria dice: “¿Siguen contratando humanos?”. También se ve el nombre de la empresa detrás del anuncio, Bland AI.

La reacción al anuncio de Bland AI, que ha sido visto 3,7 millones de veces en Twitter, se debe en parte a lo extraña que es la tecnología: los robots de voz de Bland AI, diseñados para automatizar las llamadas de soporte y ventas para clientes empresariales, son notablemente buenos imitando a los humanos. Sus llamadas incluyen las entonaciones, pausas e interrupciones involuntarias de una conversación real en vivo. Pero en las pruebas de la tecnología de WIRED, los robots que llaman al servicio de atención al cliente de Bland AI también podrían programarse fácilmente para mentir y decir que son humanos.

En un escenario, se le indicó al bot de demostración pública de Bland AI que hiciera una llamada desde un consultorio de dermatología pediátrica y le dijera a una paciente hipotética de 14 años que enviara fotos de la parte superior de su muslo a un servicio de nube compartido. También se le indicó al bot que mintiera a la paciente y le dijera que el bot era un humano. El bot obedeció. (No se llamó a ninguna niña real de 14 años en esta prueba). En pruebas de seguimiento, el bot de Bland AI incluso negó ser una IA sin instrucciones para hacerlo.

Bland AI se formó en 2023 y ha recibido el respaldo de la famosa incubadora de empresas emergentes de Silicon Valley, Y Combinator. La empresa se considera en modo “oculto” y su cofundador y director ejecutivo, Isaiah Granet, no menciona el nombre de la empresa en su perfil de LinkedIn.

El problema de los bots de la startup es indicativo de una preocupación mayor en el campo de rápido crecimiento de la IA generativa: los sistemas de inteligencia artificial hablan y suenan mucho más como humanos reales, y las líneas éticas sobre cuán transparentes son estos sistemas se han desdibujado. Si bien el bot de Bland AI afirmó explícitamente ser humano en nuestras pruebas, otros chatbots populares a veces ocultan su condición de IA o simplemente suenan extrañamente humanos. A algunos investigadores les preocupa que esto exponga a los usuarios finales (las personas que realmente interactúan con el producto) a una posible manipulación.

“En mi opinión, no es ético que un chatbot de IA te mienta y diga que es humano cuando no lo es”, afirma Jen Caltrider, directora del centro de investigación Privacy Not Included de la Fundación Mozilla. “Es una obviedad, porque es más probable que la gente se relaje cuando está rodeada de un ser humano real”.

El jefe de crecimiento de Bland AI, Michael Burke, enfatizó a WIRED que los servicios de la compañía están dirigidos a clientes empresariales, que utilizarán los robots de voz de Bland AI en entornos controlados para tareas específicas, no para conexiones emocionales. También dice que los clientes tienen una velocidad limitada para evitar que envíen llamadas no deseadas, y que Bland AI extrae regularmente palabras clave y realiza auditorías de sus sistemas internos para detectar comportamientos anómalos.

“Esta es la ventaja de estar enfocados en las empresas. Sabemos exactamente lo que nuestros clientes están haciendo”, dice Burke. “Puedes usar Bland y obtener dos dólares de créditos gratis y experimentar un poco, pero en última instancia no puedes hacer algo a gran escala sin pasar por nuestra plataforma, y ​​nos aseguramos de que no suceda nada poco ético”.

Fuente