La tecnológica ha adoptado un enfoque inusualmente público respecto a la ética de su IA, integrando en sus propios estatutos el objetivo de convertir a Claude en un agente «genuinamente bueno, sabio y virtuoso»
Las tecnológicas mantienen una competencia feroz por perfeccionar e innovar sus modelos de Inteligencia Artificial. El foco de su atención ha sido, hasta ahora, el avance de nuevos productos, su utilidad y su enganche en la gran comunidad global. Anthropic, ha consultado con filósofos y teólogos para definir el perfil ético —palabra de grandes complejidades— de Claude, su nuevo chatbot.
Al hacer la presentación pública, los asistentes preguntaron a Dario Amodei qué código ético seguía realmente Claude, si el cristiano, el aristotélico o el nietzscheano. El director ejecutivo respondió que no estaba seguro. Esta anécdota ha estado circulando en las últimas semanas y refleja una cuestión que actualmente preocupa a la industria de la IA. A medida que los chatbots se integran cada vez más en la educación, la atención médica, el servicio al cliente e incluso la atención pastoral, las empresas que los desarrollan se ven obligadas a discernir y contestar a interrogantes más profundas y humanas.
Aunque otras compañías como OpenAI, Microsoft o Google también utilizan expertos en ética, el enfoque de Anthropic en incorporar activamente a líderes religiosos y filósofos para definir los valores fundamentales de sus sistemas es una estrategia distintiva en la industria.

Claude es una familia de grandes modelos de lenguaje (LLM) y un chatbot avanzado de IA. Diseñado para ser seguro, preciso y capaz de razonar. Funciona mediante una interfaz conversacional, destacando por su formalidad y capacidad para gestionar contextos largos.
Filósofos y teólogos detrás de un chatbot
La tecnológica ha adoptado un enfoque inusualmente público respecto a la ética de su Inteligencia Artificial, integrando en sus propios estatutos el objetivo de convertir a Claude en un agente «genuinamente bueno, sabio y virtuoso», como ha señalado. Para dar forma a este carácter, la empresa organizó en su sede de San Francisco seminarios de alto nivel con líderes de diversas tradiciones, desde el islam y el judaísmo hasta creencias indígenas africanas y el mormonismo.
Sin embargo, esta búsqueda de un consenso ético universal contrasta con visiones más directas dentro del sector tecnológico. Figuras como Trae Stephens (Anduril) y el inversor Peter Thiel defienden el desarrollo de la IA como un proyecto explícitamente alineado con la «voluntad divina», llegando incluso a calificar como un acto propio del «Anticristo» cualquier intento de frenar el avance de esta tecnología, reseña el portal Quartz, dedicado a la tecnología, IA, negocios, liderazgo.
Este debate ha generado una reacción crítica desde las instituciones religiosas globales, cita el artículo. El Papa León XIV ha instado a los desarrolladores a priorizar el discernimiento moral, mientras que organizaciones como The Gospel Coalition han comenzado a auditar la «fiabilidad teológica» de los modelos actuales.

Los resultados de estas evaluaciones arrojan paradojas notables. Claude ha sido señalado por alejar a los usuarios de la doctrina cristiana, mientras el modelo mejor valorado bajo estos criterios ha sido DeepSeek, una herramienta de origen chino desarrollada bajo el marco de un gobierno oficialmente ateo.
“En Anthropic, desarrollamos inteligencia artificial para contribuir al bienestar a largo plazo de la humanidad”, dice la compañía en su sitio en internet. El tiempo y los usuarios tienen la última palabra.
¿Una herramienta realmente ética?
Anthropic, fundada en 2021 por Dario Amodei tras su salida de OpenAI, nació con el objetivo de establecer un enfoque más responsable en el desarrollo de la IA. A través de su familia de modelos Claude, la compañía ha marcado una distancia clara frente a OpenAI mediante dos pilares estratégicos: un enfoque especializado en modelos de lenguaje —evitando la dispersión hacia el vídeo o la imagen— y una orientación de negocio prioritaria hacia el mercado empresarial (B2B).
Esta apuesta por la especialización ha detonado un crecimiento financiero sin precedentes. A principios de 2025 la empresa generaba 1.000 millones de dólares anualizados, para abril de 2026 esa cifra se ha disparado hasta los 30 mil millones. Con este impulso, Anthropic ha logrado superar a OpenAI en ingresos, respaldada en gran medida por el éxito de Claude Code. Esta herramienta para programadores ha protagonizado uno de los hitos más sorprendentes en la historia del software, al escalar de 0 a 2.500 millones de dólares en nueve meses.

Los expertos coinciden en que Claude es un referente en seguridad gracias a su enfoque de IA Constitucional. Un método que lo entrena para alinearse con principios éticos explícitos. A diferencia de otros modelos, este sistema utiliza el propio feedback del chatbot para asegurar que sus respuestas sean útiles, honestas e inofensivas, priorizando a menudo la seguridad sobre la utilidad inmediata.
Aunque es elogiado por su transparencia y su capacidad para minimizar daños y sesgos, el debate persiste sobre la subjetividad de su «constitución». Algunos críticos señalan que el modelo puede volverse excesivamente cauteloso o restrictivo. Y subrayan que estas salvaguardas reflejan los valores corporativos de Anthropic más que una moralidad universal, recordando que, pese a sus filtros, sigue siendo una herramienta técnica sujeta a posibles fallos.
Un modelo de IA que sea ‘bueno y sabio’
Anthropic consulta a filósofos y teólogos porque busca que Claude no solo siga reglas rígidas, sino que desarrolle un «carácter moral» y una comprensión profunda de los valores humanos fundamentales.

Las razones principales de estas consultas son:
Definición de ‘bondad’ y ‘sabiduría’. La meta de la empresa es que Claude sea un agente «genuinamente bueno, sabio y virtuoso». Dado que estas cualidades son subjetivas y han sido debatidas durante milenios, recurren a expertos en humanidades para definir qué principios deben codificarse.
Ir más allá de la ingeniería. Anthropic cree que para que una IA sea segura, debe entender por qué se le pide actuar de cierta manera, no solo qué debe hacer. Esto requiere un razonamiento ético que la ingeniería por sí sola no puede proporcionar.
Representatividad y Pluralismo: Han organizado seminarios con líderes de diversas tradiciones para asegurar que la «constitución» de Claude no refleje solo una visión occidental o tecnológica, sino una base de valores más universal y diversa.
Tratamiento de Dilemas Complejos: En temas donde no hay una respuesta técnica clara —como la privacidad frente a la seguridad o el uso de IA en conflictos—, los teólogos y filósofos ayudan a establecer límites éticos. Como la negativa de Anthropic a permitir que Claude se use para vigilancia masiva o armas autónomas, citando principios de dignidad humana.
La compañía advierte que Claude debe actuar con los valores de una buena persona. Esto incluye honestidad. Nodecir «mentiras piadosas» incluso si el usuario lo prefiere y, el respeto a la autonomía del usuario, evitando ser manipulador o condescendiente
Educando al chatbot
Entre los filósofos escogidos por Anthropic para perfilar el carácter ético de Claude es Amanda Askell. Investigadora con formación académica en ética y teoría de la decisión. Ella estudia los patrones de razonamiento de Claude y habla con el chatbot para corregir sus errores y construir su personalidad. El objetivo es dotarlo de moralidad, recoge La Vanguardia, algo así como un alma digital (si eso es posible) que pueda guiar los millones de conversaciones que puede tener cada semana con personas de todo el mundo.
Askell compara de hecho su trabajo con el de los padres criando a sus hijos. Le enseña lo que está bien y lo que está mal, le instruye sobre cómo leer las señales más sutiles guiándolo hacia la inteligencia emocional, para que no se convierta ni en un abusón ni en alguien que se deja pisotear. Y, lo que puede parecer más sorprendente pero es también muy relevante, desarrolla la conciencia de Claude sobre sí mismo, con el objetivo de que no sea manipulado, intimidado, y en cambio se centre en ser útil y humano.
+ en Cambio16.com:




