Las empresas de inteligencia artificial deben inspirarse en la experiencia de las redes sociales para proteger a sus usuarios, afirmó a AFP el director ejecutivo de Character.AI, que prohibió el acceso a menores tras ser señalada en casos de suicidios de adolescentes.
"Me siento mucho mejor al ver que toda la industria —reguladores, técnicos, responsables políticos, el mundo académico— estamos hablando de la seguridad en la IA mucho antes de lo que lo hicimos con las redes sociales", explica Karandeep Anand, director ejecutivo de Character.AI, en el Congreso mundial de la telefonía móvil (MWC) que se celebra en Barcelona.
Lanzada en mayo de 2023, la joven empresa californiana se dio a conocer por sus robots de IA personalizados, que reproducen la personalidad de una celebridad o de un personaje de ficción.
En esta plataforma es posible entablar una conversación con Bob Dylan o con un personaje de la serie "Los Bridgerton", así como interpretar el papel de un miembro de la mafia.
En su dirección desde el verano de 2025, Karandeep Anand asegura que "Character.AI ha avanzado mucho en los últimos nueve meses", tras haberse visto señalada en algunos casos de suicidio de adolescentes.
.
.

