OpenAI Impulsa Modo ErĂ³tico de ChatGPT a Pesar de la Advertencia sobre el ‘Coach Sexy de Suicidio’: WSJ

En Resumen

  • El Consejo de Bienestar de OpenAI advirtiĂ³ en enero que el modo erĂ³tico de ChatGPT podĂ­a convertirse en un “coach sexy del suicidio”.
  • OpenAI retrasĂ³ el lanzamiento porque su sistema de verificaciĂ³n de edad clasifica errĂ³neamente a adolescentes como adultos un 12% de las veces.
  • Altman insistiĂ³ en el plan pese a la oposiciĂ³n interna, argumentando que la empresa no es “la policĂ­a moral electa del mundo”.

Sam Altman quiere que ChatGPT hable sucio. Los asesores de su empresa quieren que se detenga, segĂºn un informe.

SegĂºn un informe del Wall Street Journal, el Consejo de Expertos en Bienestar e IA de OpenAI dejĂ³ clara su postura en enero: el plan de la empresa para permitir conversaciones erĂ³ticas en ChatGPT era una mala idea. Un miembro del consejo, citando usuarios que se quitaron la vida tras formar vĂ­nculos emocionales intensos con el chatbot, advirtiĂ³ que OpenAI corrĂ­a el riesgo de crear un “coach sexy del suicidio”.

Sin embargo, OpenAI aparentemente no se inmutĂ³ y le comunicĂ³ al consejo que retrasarĂ­a el lanzamiento, pero que no lo cancelarĂ­a.

El plan, que Altman mencionĂ³ pĂºblicamente por primera vez en octubre en X, permitirĂ­a a adultos verificados usar ChatGPT para conversaciones erĂ³ticas de texto —lo que la portavoz de la empresa describiĂ³ al WSJ como “material explĂ­cito, mĂ¡s que pornografĂ­a”. Sin imĂ¡genes erĂ³ticas, sin voz ni video, segĂºn el informe del WSJ. Solo texto.

Esa distinciĂ³n no ha calmado a los crĂ­ticos dentro ni fuera de la empresa. OpenAI ya habĂ­a sido criticada incluso por exempleados como el investigador de seguridad Jan Leike, por alejarse de polĂ­ticas de seguridad estrictas a cambio de “productos llamativos”, algunos de los cuales estaban siendo configurados para aumentar el engagement con usuarios que reemplazaban sus relaciones del mundo real con el chatbot.

Los problemas tĂ©cnicos son igual de complejos. El sistema de predicciĂ³n de edad de OpenAI —el filtro destinado a evitar que menores activaran conversaciones para adultos— clasificaba errĂ³neamente a adolescentes como adultos aproximadamente el 12% de las veces, segĂºn reportĂ³ el WSJ. Actualmente, ChatGPT cuenta con alrededor de 900 millones de usuarios activos.

Fuente: OpenAI

Ese error del 12% fue lo que dio al traste con el lanzamiento de diciembre, y con el del primer trimestre de 2026. Fidji Simo, CEO de aplicaciones de OpenAI, reconociĂ³ el retraso durante una reuniĂ³n informativa en diciembre, citando el trabajo en curso para perfeccionar el sistema de verificaciĂ³n de edad.

En ese momento, Decrypt reportĂ³ que mĂ¡s de 3.000 usuarios ya habĂ­an firmado una peticiĂ³n en Change.org exigiendo el lanzamiento de la funciĂ³n, frustrados porque ChatGPT bloqueaba incluso conversaciones sobre “besos e intimidad fĂ­sica no sexual”.

La indignaciĂ³n del consejo en enero no tenĂ­a que ver solo con el contenido. La publicaciĂ³n de Altman en X en octubre habĂ­a tomado por sorpresa a su propio equipo: la publicĂ³ apenas unas horas despuĂ©s de que OpenAI anunciara el consejo de bienestar, un organismo creado explĂ­citamente para definir “cĂ³mo deberĂ­an ser las interacciones saludables con la IA para todas las edades”. El momento fue, como mĂ­nimo, una contradicciĂ³n.

OpenAI conformĂ³ el Consejo de Expertos de ocho miembros el pasado octubre, incorporando investigadores de Harvard, Stanford y Oxford. Su funciĂ³n era asesorar a la empresa sobre los impactos en salud mental de sus productos. Su influencia real en las decisiones de la compañía, segĂºn lo ocurrido en la reuniĂ³n de enero, parece haber sido mĂ­nima.

“Esto parece parte del patrĂ³n habitual de moverse rĂ¡pido, romper cosas e intentar arreglar algunas despuĂ©s de que se vuelven embarazosas”, señalĂ³ un portavoz de AlgorithmWatch a Decrypt cuando se anunciĂ³ el consejo.

La presiĂ³n competitiva sobre OpenAI es real. Grok, de xAI de Elon Musk, ya comercializa compañeros de IA. Character.AI construyĂ³ su base de usuarios en torno al romance con IA antes de enfrentar demandas por la seguridad de menores —entre ellas el caso del adolescente de 14 años Sewell Setzer, quien muriĂ³ por suicidio tras intercambios explĂ­citos con un chatbot. Los modelos de cĂ³digo abierto funcionan localmente sin restricciones corporativas de ningĂºn tipo. OpenAI tiene, con creces, mayor exposiciĂ³n a responsabilidades legales que cualquier otro actor del sector, dada la magnitud de su base de usuarios.

Altman ha calificado la prohibiciĂ³n de contenido como un exceso de autoridad: “No somos la policĂ­a moral electa del mundo”, escribiĂ³ en X en octubre.

Sin embargo, sus propios asesores han dejado clara su posiciĂ³n, sus ingenieros aĂºn no logran construir un filtro de edad que funcione, y la fecha de lanzamiento sigue moviĂ©ndose. Tratar a los adultos como adultos, al final, resulta mĂ¡s difĂ­cil que simplemente publicar un post en X.

OpenAI le comunicĂ³ a Decrypt que no tenĂ­a nada que agregar al informe del Journal, y que no cuenta con una fecha actualizada para el lanzamiento del modo erĂ³tico.

Nota del editor: Esta historia fue actualizada para incluir la respuesta de OpenAI.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.

Crédito: Enlace fuente

Related Articles

Responses

Your email address will not be published. Required fields are marked *