¿Cómo pueden los contact center utilizar los chatbots con IA de forma responsable?

Los chatbots llevan años madurando. En 2022, sin embargo, demostraron que están listos para dar un gran salto adelante.

Cuando se presentó ChatGPT hace unas semanas, el mundo de la tecnología se hizo un hervidero. Kevin Roose, columnista de tecnología del New York Times, lo definió como «sencillamente, el mejor chatbot de inteligencia artificial jamás presentado al público en general», y las redes sociales se inundaron de ejemplos de su capacidad para crear una prosa convincente de aspecto humano. Algunos inversores de capital riesgo llegaron incluso a afirmar que su lanzamiento podría ser tan revolucionario como la introducción del iPhone en 2007.

ChatGPT parece representar un gran paso adelante en la tecnología de inteligencia artificial (IA). Pero, como muchos usuarios se apresuraron a descubrir, sigue adoleciendo de muchos defectos, algunos de ellos graves. Su aparición no sólo marca un hito en el desarrollo de la IA, sino que supone una llamada urgente a tener en cuenta un futuro que está llegando más rápido de lo que muchos esperaban.

Fundamentalmente, ChatGPT aporta un nuevo sentido de urgencia a la pregunta: ¿Cómo podemos desarrollar y utilizar esta tecnología de forma responsable? Los centros de contacto no pueden responder a esta pregunta por sí solos, pero tienen un papel específico que desempeñar.

ChatGPT: ¿a qué viene tanto revuelo?

Para responder a esta pregunta, primero hay que saber qué es ChatGPT y qué representa. La tecnología es una creación de OpenAI, la empresa de IA con sede en San Francisco que también lanzó el innovador generador de imágenes DALL-E 2 a principios de este año. Se puso a disposición del público el 30 de noviembre de 2022 y no tardó en ganar adeptos, alcanzando el millón de usuarios en cinco días.

Las capacidades del bot sorprendieron incluso a Elon Musk, cofundador original de OpenAI con Sam Altman. Musk se hizo eco de la opinión de mucha gente cuando calificó el procesamiento del lenguaje de ChatGPT de «acojonantemente bueno».

Entonces, ¿por qué tanto bombo? ¿Es ChatGPT realmente mucho mejor que cualquier chatbot anterior? En muchos sentidos, parece que la respuesta es sí.

La base de conocimientos del bot y sus capacidades de procesamiento del lenguaje superan con creces a otras tecnologías del mercado. Es capaz de dar respuestas rápidas y extensas a innumerables preguntas, cubriendo una amplia gama de temas e incluso respondiendo en diferentes estilos de prosa en función de las entradas del usuario. Puedes pedirle que escriba una carta de dimisión en un estilo formal o que elabore un poema sobre tu mascota. Elabora ensayos académicos con facilidad, y su prosa es convincente y, en muchos casos, precisa. En las semanas posteriores a su lanzamiento, Twitter se inundó de ejemplos de ChatGPT respondiendo a todo tipo de preguntas que los usuarios pudieran concebir.

La tecnología es, como señala Roose, «Más inteligente. Más extraña. Más flexible». Puede que realmente marque el comienzo de un mar de cambios en la IA conversacional.

Un lobo con piel de cordero: los peligros de la desinformación velada

A pesar de sus impresionantes características, ChatGPT sigue presentando muchos de los defectos que se han hecho familiares en la tecnología de IA. Sin embargo, en un paquete tan potente, estos defectos parecen más ominosos.

Los primeros usuarios informaron de una serie de problemas preocupantes con la tecnología. Por ejemplo, al igual que otros chatbots, aprendió rápidamente los prejuicios de sus usuarios. En poco tiempo, ChatGPT soltaba comentarios ofensivos como que las mujeres con batas de laboratorio probablemente sólo eran conserjes o que sólo los hombres asiáticos o blancos eran buenos científicos. A pesar de las advertencias del sistema, los usuarios fueron capaces de entrenarlo para que diera este tipo de respuestas sesgadas con bastante rapidez.

Sin embargo, lo más preocupante de ChatGPT son sus cualidades humanas, que hacen que sus respuestas sean aún más convincentes. Samantha Delouya, periodista de Business Insider, le pidió que escribiera una historia que ella ya había escrito, y se quedó sorprendida por los resultados.

Por un lado, el «periodismo» resultante fue muy preciso y acertado, aunque algo predecible. En menos de 10 segundos, produjo un artículo de 200 palabras bastante similar a algo que Delouya podría haber escrito, tanto que lo calificó de «alarmantemente convincente». El truco, sin embargo, era que el artículo contenía citas falsas inventadas por ChatGPT. Delouya las detectó fácilmente, pero un lector desprevenido podría no haberlo hecho.

Ahí radica el problema de este tipo de tecnología. Su misión es producir contenidos y conversaciones convincentes, no necesariamente decir la verdad. Y eso abre nuevas y aterradoras posibilidades de desinformación y, en manos de usuarios malintencionados, de campañas de desinformación más eficaces.

¿Cuáles son las implicaciones, políticas y de otro tipo, de un chatbot tan poderoso? Es difícil saberlo, y eso es lo que da miedo. En los últimos años hemos visto con qué facilidad puede propagarse la desinformación, por no hablar del daño que puede causar. ¿Qué pasaría si un chatbot pudiera engañar de forma más eficaz y convincente?

La IA no puede abandonarse a su suerte: la solución de las pruebas

Como muchos de los que leen los titulares sobre ChatGPT, los ejecutivos de los centros de contacto pueden estar muy ilusionados con las posibilidades de implantar este nivel avanzado de IA en sus soluciones de chatbot. Pero primero deben enfrentarse a estas cuestiones y elaborar un plan para utilizar esta tecnología de forma responsable.

El uso cuidadoso de ChatGPT -o de cualquier tecnología que venga después- no es un problema unidimensional. Ningún agente puede resolverlo por sí solo, y en última instancia se reduce a una serie de cuestiones que implican no sólo a desarrolladores y usuarios, sino también a la política pública y la gobernanza. Aun así, todos los actores deben poner de su parte y, en el caso de los centros de contacto, eso significa centrarse en las pruebas.

El camino más seguro hacia el caos es dejar que los chatbots resuelvan por sí solos todas las preguntas de los usuarios, sin ningún tipo de orientación humana. Como ya hemos visto incluso con la forma más avanzada de esta tecnología, eso no siempre acaba bien.

En su lugar, los centros de contacto que desplieguen soluciones de chatbot cada vez más avanzadas deben comprometerse a realizar pruebas periódicas y automatizadas para sacar a la luz cualquier fallo o problema a medida que surja y antes de que se convierta en un problema mayor. Tanto si se trata de simples defectos en la experiencia del cliente (CX) como de errores de información más dramáticos, es necesario descubrirlos pronto para corregir el problema y volver a entrenar al bot.

Cyara Botium está diseñado para ayudar a los centros de contacto a mantener los chatbots bajo control. Como solución integral de pruebas de chatbot, Botium puede realizar pruebas automatizadas de puntuaciones de procesamiento de lenguaje natural (NLP), flujos de conversación, problemas de seguridad y rendimiento general. No es el único componente de un plan completo para el uso responsable de chatbots, pero es un componente crítico que ningún centro de contacto puede permitirse ignorar.

Puedes ampliar más información aquí

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.