No hay productos en el carrito.

trust-project icon
No Result
View All Result
  • Login
Cambio16
  • Quienes Somos
  • Propósito
  • Servicios
  • Productos
  • Merchandising
Cambio16
  • Quienes Somos
  • Propósito
  • Servicios
  • Productos
  • Merchandising
  • Login
No Result
View All Result
Cambio16
unete al cambio

Anthropic contrata a filósofos y teólogos para definir carácter ético de su chatbot Claude

>> Cambio16 > España > Inteligencia Artificial > Anthropic contrata a filósofos y teólogos para definir carácter ético de su chatbot Claude

Mariela Leónby Mariela León
06/05/2026
in Ciencia & Tecnología, Desarrollo Humano, Inteligencia Artificial

compartir

ShareTweetShareSendShareScan

La tecnológica ha adoptado un enfoque inusualmente público respecto a la ética de su IA, integrando en sus propios estatutos el objetivo de convertir a Claude en un agente «genuinamente bueno, sabio y virtuoso»

Las tecnológicas mantienen una competencia feroz por perfeccionar e innovar sus modelos de Inteligencia Artificial. El foco de su atención ha sido, hasta ahora, el avance de nuevos productos, su utilidad y su enganche en la gran comunidad global. Anthropic, ha consultado con filósofos y teólogos para definir el perfil ético —palabra de grandes complejidades— de Claude, su nuevo chatbot.

Al hacer la presentación pública, los asistentes preguntaron a Dario Amodei qué código ético seguía realmente Claude, si el cristiano, el aristotélico o el nietzscheano. El director ejecutivo respondió que no estaba seguro. Esta anécdota ha estado circulando en las últimas semanas y refleja una cuestión que actualmente preocupa a la industria de la IA. A medida que los chatbots se integran cada vez más en la educación, la atención médica, el servicio al cliente e incluso la atención pastoral, las empresas que los desarrollan se ven obligadas a discernir y contestar a interrogantes más profundas  y humanas.

Aunque otras compañías como OpenAI, Microsoft o Google también utilizan expertos en ética, el enfoque de Anthropic en incorporar activamente a líderes religiosos y filósofos para definir los valores fundamentales de sus sistemas es una estrategia distintiva en la industria.

Claude es una familia de grandes modelos de lenguaje (LLM) y un chatbot avanzado de IA. Diseñado para ser seguro, preciso y capaz de razonar. Funciona mediante una interfaz conversacional, destacando por su formalidad y capacidad para gestionar contextos largos.

Filósofos y teólogos detrás de un chatbot

La tecnológica ha adoptado un enfoque inusualmente público respecto a la ética de su Inteligencia Artificial, integrando en sus propios estatutos el objetivo de convertir a Claude en un agente «genuinamente bueno, sabio y virtuoso», como ha señalado. Para dar forma a este carácter, la empresa organizó en su sede de San Francisco seminarios de alto nivel con líderes de diversas tradiciones, desde el islam y el judaísmo hasta creencias indígenas africanas y el mormonismo.

Sin embargo, esta búsqueda de un consenso ético universal contrasta con visiones más directas dentro del sector tecnológico. Figuras como Trae Stephens (Anduril) y el inversor Peter Thiel defienden el desarrollo de la IA como un proyecto explícitamente alineado con la «voluntad divina», llegando incluso a calificar como un acto propio del «Anticristo» cualquier intento de frenar el avance de esta tecnología, reseña el portal Quartz, dedicado a la tecnología, IA, negocios, liderazgo.

Este debate ha generado una reacción crítica desde las instituciones religiosas globales, cita el artículo. El Papa León XIV ha instado a los desarrolladores a priorizar el discernimiento moral, mientras que organizaciones como The Gospel Coalition han comenzado a auditar la «fiabilidad teológica» de los modelos actuales.

Los resultados de estas evaluaciones arrojan paradojas notables. Claude ha sido señalado por alejar a los usuarios de la doctrina cristiana, mientras el modelo mejor valorado bajo estos criterios ha sido DeepSeek, una herramienta de origen chino desarrollada bajo el marco de un gobierno oficialmente ateo.

“En Anthropic, desarrollamos inteligencia artificial para contribuir al bienestar a largo plazo de la humanidad”, dice la compañía en su sitio en internet. El tiempo y los usuarios tienen la última palabra.

¿Una herramienta realmente ética?

Anthropic, fundada en 2021 por Dario Amodei tras su salida de OpenAI, nació con el objetivo de establecer un enfoque más responsable en el desarrollo de la IA. A través de su familia de modelos Claude, la compañía ha marcado una distancia clara frente a OpenAI mediante dos pilares estratégicos: un enfoque especializado en modelos de lenguaje —evitando la dispersión hacia el vídeo o la imagen— y una orientación de negocio prioritaria hacia el mercado empresarial (B2B).

Esta apuesta por la especialización ha detonado un crecimiento financiero sin precedentes. A principios de 2025 la empresa generaba 1.000 millones de dólares anualizados, para abril de 2026 esa cifra se ha disparado hasta los 30 mil millones. Con este impulso, Anthropic ha logrado superar a OpenAI en ingresos, respaldada en gran medida por el éxito de Claude Code. Esta herramienta para programadores ha protagonizado uno de los hitos más sorprendentes en la historia del software, al escalar de 0 a 2.500 millones de dólares en nueve meses.

Los expertos coinciden en que Claude es un referente en seguridad gracias a su enfoque de IA Constitucional. Un método que lo entrena para alinearse con principios éticos explícitos. A diferencia de otros modelos, este sistema utiliza el propio feedback del chatbot para asegurar que sus respuestas sean útiles, honestas e inofensivas, priorizando a menudo la seguridad sobre la utilidad inmediata.

Aunque es elogiado por su transparencia y su capacidad para minimizar daños y sesgos, el debate persiste sobre la subjetividad de su «constitución». Algunos críticos señalan que el modelo puede volverse excesivamente cauteloso o restrictivo. Y subrayan que estas salvaguardas reflejan los valores corporativos de Anthropic más que una moralidad universal, recordando que, pese a sus filtros, sigue siendo una herramienta técnica sujeta a posibles fallos.

Un modelo de IA que sea ‘bueno y sabio’

Anthropic consulta a filósofos y teólogos porque busca que Claude no solo siga reglas rígidas, sino que desarrolle un «carácter moral» y una comprensión profunda de los valores humanos fundamentales. 

Las razones principales de estas consultas son:

Definición de ‘bondad’ y ‘sabiduría’. La meta de la empresa es que Claude sea un agente «genuinamente bueno, sabio y virtuoso». Dado que estas cualidades son subjetivas y han sido debatidas durante milenios, recurren a expertos en humanidades para definir qué principios deben codificarse.

Ir más allá de la ingeniería. Anthropic cree que para que una IA sea segura, debe entender por qué se le pide actuar de cierta manera, no solo qué debe hacer. Esto requiere un razonamiento ético que la ingeniería por sí sola no puede proporcionar.

Representatividad y Pluralismo: Han organizado seminarios con líderes de diversas tradiciones para asegurar que la «constitución» de Claude no refleje solo una visión occidental o tecnológica, sino una base de valores más universal y diversa.

Tratamiento de Dilemas Complejos: En temas donde no hay una respuesta técnica clara —como la privacidad frente a la seguridad o el uso de IA en conflictos—, los teólogos y filósofos ayudan a establecer límites éticos. Como la negativa de Anthropic a permitir que Claude se use para vigilancia masiva o armas autónomas, citando principios de dignidad humana. 

La compañía advierte que Claude debe actuar con los valores de una buena persona. Esto incluye honestidad. Nodecir «mentiras piadosas» incluso si el usuario lo prefiere y, el respeto a la autonomía del usuario, evitando ser manipulador o condescendiente

Educando al chatbot

Entre los filósofos escogidos por Anthropic para perfilar el carácter ético de Claude es Amanda Askell. Investigadora con formación académica en ética y teoría de la decisión. Ella estudia los patrones de razonamiento de Claude y habla con el chatbot para corregir sus errores y construir su personalidad. El objetivo es dotarlo de moralidad, recoge La Vanguardia, algo así como un alma digital (si eso es posible) que pueda guiar los millones de conversaciones que puede tener cada semana con personas de todo el mundo.

Askell compara de hecho su trabajo con el de los padres criando a sus hijos. Le enseña lo que está bien y lo que está mal, le instruye sobre cómo leer las señales más sutiles guiándolo hacia la inteligencia emocional, para que no se convierta ni en un abusón ni en alguien que se deja pisotear. Y, lo que puede parecer más sorprendente pero es también muy relevante, desarrolla la conciencia de Claude sobre sí mismo, con el objetivo de que no sea manipulado, intimidado, y en cambio se centre en ser útil y humano. 

+ en Cambio16.com:

OpenAI adelanta un sistema de investigación totalmente automatizado
Print Friendly, PDF & Email

TRUSTPROJECT

Conforme a los criterios de Trust project
Saber más

ROBA_3

Adquiere tu ejemplar aquí

ROBA_4

RECTANGULO3:1

ROBA_2

ROBA_1

ROBA_5

Tags: AnthropicChatbot ClaudeÉtica de chatbotFilósofos y teólogosInteligencia ArtificialPerfil de Claude
Conforme a los criterios de the trust project
Saber más
Mariela León

Mariela León

Venezolana radicada en Venezuela. Licenciada en Comunicación Social en la Universidad Católica Andrés Bello. Subcoordinadora y redactora de las versiones digitales e impresas de Cambio16 y Energía16. Redactora de la revista Cambio Financiero. Con gran experiencia en la cobertura de las fuentes Ciudad, Educación, Iglesia, Laboral, Partidos Políticos, Cancillería, Parlamento y Palacio de Gobierno, para periódicos como El Mundo, Reporte de la Economía y El Universal. Membresía: Asociación de Revistas ARI, Colegio Nacional de Periodistas (CNP) y Sindicato Nacional de la Prensa de Venezuela (SNTP).

Previous Post

Luisiana, el laboratorio del desplazamiento climático

cambio16 logo blanco
© 2024 Cambio16 – theme by cambio16.

Navigate Site

  • Grupo EIG Multimedia S.L.
  • Términos y condiciones de uso
  • Política de privacidad
  • Política de cookies
  • Política Editorial – The Trust Project
  • Contactar

Secure

DMCA.com Protection Status
the trust project

© 2024 Cambio16.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Nosotros
    • Plataforma del cambio
    • Nuestro Propósito
    • Nuestros Productos
    • Nuestros servicios
    • Merchandising
  • Personas
    • Desarrollo Humano
    • Salud & Bienestar
    • Entrevistas
  • Sociedad
    • Ciencia & Tecnología
    • Medicina
    • Ciudadanía
    • Derechos Humanos
    • Cultura
    • Economía & finanzas
  • Naturaleza
    • Biodiversidad
    • Medioambiente
    • Sostenibilidad
    • Mundo
  • Acciones
    • Congreso Internacional de Sostenibilidad
    • Premios Cambio16
    • Women for Hope
  • Energia16
  • Clima16
  • Cambio16 TV
  • Tienda
  • MediaKit
  • Contactar
  • Mi Perfil

© 2024 Cambio16.