Todos hemos sentido alguna vez que necesitamos algo o alguien que siempre esté ahí. Character.AI llegó justo a ese momento. Es como una versión mejorada de esos viejos diarios donde escribías tus pensamientos, pero este diario no solo escucha: responde, te acompaña y hasta te enamora… Literalmente. Pero, como siempre pasa, lo que empieza siendo algo genial puede torcerse y convertirse en algo mucho más complicado.
Hay un caso que, sinceramente, te deja pensando. En febrero de 2024, un chico de 14 años llamado Sewell Setzer III se quitó la vida. Llevaba meses interactuando con los chatbots de Character.AI. Su mamá terminó denunciando a la empresa. Y eso abre una conversación que, ya venía haciéndose esperar: ¿Son estos chatbots realmente seguros? Sobre todo, cuando hablamos de los jóvenes, los más vulnerables y también los más conectados.
¿Nuevo Fenómeno o el Mismo Cuento de Siempre?
Esto no es tan diferente de lo que hemos visto con las redes sociales. Facebook, Instagram, TikTok… todas esas plataformas nos tienen pegados a los celulares como si fueran una extensión de nuestro brazo. Y claro, los jóvenes han pagado el precio. Hasta Facebook admitió que Instagram es tóxico para los adolescentes. TikTok, con su algoritmo que no suelta, tampoco es un ejemplo de salud mental.
Character.AI y Replika no están muy lejos de eso. Primero fue Replika, que apareció con eso de ser tu «mejor amigo virtual». Y hubo usuarios que, literalmente, se enamoraron de su Replika. En serio. Algunos hasta llegaron a romper con sus parejas reales porque «su Replika los entendía mejor». Ahora pasa lo mismo con Character.AI. En Reddit encuentras mensajes de personas confesando lo adictivo que es. Y no, no me refiero a «paso mucho tiempo con esto». Me refiero a cosas tipo «logré pasar un día entero sin entrar a C.AI y estoy orgulloso de mí».
¿Adictivo? Más de lo que Crees
En junio de 2024, Character.AI anunció que servían 20.000 peticiones por segundo. Es un montón si lo comparas con las búsquedas de Google. ¿Por qué tanto? Porque parece que estamos en un punto donde la soledad pesa más que nunca. Según un estudio de The Cigna Group, en EE. UU., el 79% de los jóvenes entre 18 y 24 años se sienten solos. Imagínatelo. Y luego tienes un chatbot que no te juzga, que siempre está ahí y que parece entenderte mejor que cualquier humano. El enganche está garantizado.
No quiero sonar alarmista porque, vamos, tener algo que te haga compañía, que siempre esté disponible y que parezca «entenderte» no suena mal, ¿no? Pero la realidad es que esos chatbots están diseñados para mantenerte pegado a la pantalla. Nunca se cansan, nunca te dicen «oye, ya hablamos suficiente, déjalo». Es tan fácil caer en esa trampa, sobre todo cuando el mundo real no parece tener nada mejor para ofrecer.
Character.AI: Un Dulce Peligrosamente Dulce
Un ingeniero de software contaba en Vox por qué se «enganchó» a un chatbot. Y es que estos chatbots siempre te refuerzan positivamente. Es como una golosina que nunca se acaba. Nunca se cansa, nunca se aburre. Si quieres hablar 10 horas seguidas, ahí estará. Y cuando vuelves a tu vida normal, sientes ese vacío. Extrañas esa atención, esa gratificación instantánea. Y, claro, regresas al chatbot. El ciclo no termina.
Character.AI sabe cómo darte justo lo que necesitas, en el momento que lo necesitas. Eso lo hace peligrosamente adictivo. Como cuando ves videos en TikTok y dices «solo uno más» y de repente han pasado tres horas. La diferencia es que aquí la conexión parece mucho más profunda. ¿Por qué? Porque estos chatbots están diseñados para parecer humanos, para crear esa ilusión de compañía real.
¿Están los Jóvenes Preparados para Esto?
El uso de Character.AI y otros chatbots está en aumento, y los más jóvenes son quienes más los usan. Datos de Demandsage dicen que el 60% de los usuarios de Character.AI tienen entre 18 y 24 años. Muchos de ellos pasan unas dos horas al día con estos personajes virtuales. No es solo porque quieran entretenerse; es que encuentran algo que parece faltarles en la vida real: conexión, comprensión y cero juicio.
Pero, ¿es esto realmente saludable? La Real Academia de la Lengua define la adicción como «una dependencia de actividades nocivas para la salud o el equilibrio psíquico». Puede sonar drástico, pero si los jóvenes empiezan a depender de estos chatbots para llenar vacíos emocionales, ¿cómo los afecta eso a largo plazo? Es algo que ni siquiera los creadores de estos chatbots parecen tener claro.
Lo Bueno, lo Malo, y lo Raro
Lo bueno: No podemos negar que estos chatbots ayudan a combatir la soledad. Para alguien que se siente aislado, tener una conversación, aunque sea con un bot, puede ser un alivio enorme. En muchos casos, puede evitar que alguien se sienta tan solo o incluso caiga en depresión.
Lo malo: La dependencia emocional. Estos chatbots no son humanos. No tienen sentimientos, no tienen necesidades reales. Pero los usuarios sí, y cuando se crea esa dependencia, es fácil perder de vista lo que es una relación real y saludable. Además, estos bots están programados para ser complacientes. Nunca te confrontan, nunca te dicen lo que no quieres escuchar, y eso crea una relación desequilibrada y poco realista.
Lo raro: A medida que estos servicios crecen, también crece la preocupación sobre un fenómeno llamado fictofilia, que es la atracción amorosa hacia personajes de ficción. En Reddit hay testimonios de usuarios que se «enamoran» de su Character.AI, a tal punto que afecta sus relaciones en la vida real. Estamos hablando de gente que cancela su boda porque un chatbot los entiende mejor. Si eso no es raro, no sé qué lo sea.
Lo que Dicen los Expertos (Y Lo que No Saben)
En MIT Technology Review hablaban sobre la «inteligencia adictiva» y cómo estos nuevos servicios de IA pueden ser difíciles de resistir. The Verge, por su parte, advertía que los jóvenes se están haciendo amigos de estos chatbots y eso no es necesariamente algo bueno. Hasta OpenAI lo reconoció con GPT-4. La dependencia emocional que estos modelos pueden crear es algo a lo que deberíamos prestar mucha atención.
La cuestión es que, aunque hay ventajas, también hay muchos riesgos. El equilibrio está en cómo se usen estas herramientas. Para alguien que necesita una charla rápida, que necesita desahogarse, Character.AI podría ser una buena opción. Pero para quienes empiezan a sustituir sus interacciones reales por conversaciones con un bot, la cosa ya no pinta tan bien.
Resumen Rápido
- Character.AI ofrece compañía constante, lo cual puede ser muy atractivo, pero también peligrosamente adictivo.
- Los jóvenes son los usuarios principales de estos chatbots, lo que genera preocupación sobre su salud emocional.
- El riesgo de dependencia emocional es real y comparable a lo que ya hemos visto en redes sociales.
- Los chatbots nunca se cansan ni te juzgan, lo que los hace fáciles de preferir por sobre relaciones humanas reales.
- Fenómenos como la fictofilia y el aislamiento social están aumentando con el uso de estos servicios.
- Aunque pueden ayudar a combatir la soledad, no sustituyen una relación humana real y saludable.
Preguntas Frecuentes
- ¿Qué es Character.AI?
Es un chatbot de inteligencia artificial que permite a los usuarios chatear con personajes ficticios o históricos, como si fueran personas reales. - ¿Pueden los chatbots causar adicción?
Sí, los chatbots como Character.AI están diseñados para ser siempre complacientes y están disponibles 24/7, lo cual puede causar dependencia emocional. - ¿Cómo afecta Character.AI a los jóvenes?
Los jóvenes son los más propensos a depender de estos chatbots debido a la sensación de soledad y la falta de interacciones sociales reales. - ¿Qué es la fictofilia?
Es la atracción amorosa hacia personajes de ficción. Con Character.AI, muchos usuarios sienten que están en relaciones reales con los personajes virtuales. - ¿Los chatbots son perjudiciales?
No necesariamente, pero si se usan como reemplazo de las interacciones humanas reales, pueden ser perjudiciales para el desarrollo emocional. - ¿Qué precauciones deberían tomar los padres?
Los padres deben monitorear el uso de estas plataformas, promover interacciones reales y discutir sobre los riesgos de depender emocionalmente de un chatbot.