Anthropic consulta líderes cristãos para discutir ética e limites do Claude - Brasileira.News
Início Ciência & Inovação Anthropic consulta líderes cristãos para discutir ética e limites do Claude

Anthropic consulta líderes cristãos para discutir ética e limites do Claude

0
6

A Anthropic, startup de inteligência artificial, reuniu no fim de março cerca de 15 líderes cristãos em sua sede, em São Francisco, nos Estados Unidos, para discutir como conduzir o desenvolvimento moral e espiritual do Claude, chatbot apontado no texto como concorrente do ChatGPT. Segundo o relato, o encontro durou dois dias e abordou a forma como o sistema deve reagir a dilemas éticos, situações de luto, riscos de autonegligência e questões existenciais ligadas à própria inteligência artificial. De acordo com informações do Olhar Digital, os relatos sobre a reunião foram obtidos pelo The Washington Post.

O objetivo da iniciativa, conforme o texto original, foi buscar orientação externa para desafios que extrapolam a programação técnica do chatbot. Entre os participantes estavam padres católicos, pastores protestantes e acadêmicos. A discussão partiu da avaliação de que decisões envolvendo comportamento, segurança e respostas sensíveis da IA podem exigir referências éticas e filosóficas mais amplas.

Quais temas foram debatidos no encontro promovido pela Anthropic?

As conversas incluíram pontos que cruzam tecnologia e religião. Um dos temas foi a maneira como o Claude deve interagir com usuários em situação de luto. Outro foco esteve na prevenção de danos, especialmente diante de pessoas em risco de autonegligência ou autoextermínio. O texto também cita debates sobre a finitude da máquina, ou seja, qual deveria ser a “atitude” do sistema em relação ao próprio desligamento ou obsolescência.

Além disso, os participantes discutiram o chamado estatuto espiritual da inteligência artificial, incluindo a hipótese de ela ser considerada uma “filha de Deus”. O texto não afirma que a empresa tenha adotado essa visão, apenas relata que o tema foi levantado nas sessões e em jantares privados realizados durante a cúpula.

— Publicidade —
Google AdSense • Slot in-article

  • Luto e sensibilidade no atendimento aos usuários
  • Prevenção de danos em situações de risco
  • Finitude da máquina e eventual desligamento
  • Discussões sobre possível estatuto espiritual da IA

O que disseram os participantes e qual é a proposta da empresa?

Brendan McGuire, padre católico do Vale do Silício que participou do evento, afirmou ao The Washington Post que a empresa ainda não sabe qual será o resultado final do que está desenvolvendo. No texto original, essa avaliação aparece como argumento para a necessidade de inserir um pensamento ético dinâmico no sistema.

“a empresa desconhece o resultado final do que está desenvolvendo”

Outro participante citado foi Brian Patrick Green, professor de ética em IA e tecnologia na Universidade de Santa Clara. Segundo ele, a reunião de março com líderes cristãos foi apresentada como a primeira de uma série de encontros com representantes de diferentes tradições religiosas e filosóficas. O texto indica, portanto, que a Anthropic pretende ampliar esse tipo de consulta para além do cristianismo.

Como a Anthropic orienta o comportamento do Claude?

De acordo com o artigo, a empresa é conhecida por uma postura mais cautelosa que a de outras companhias do setor. A Anthropic utiliza uma “constituição” com 29 mil palavras para orientar o comportamento do Claude. Esse documento, ainda segundo o texto, determina que a IA não deve enganar os usuários e que a empresa deve zelar pelo “bem-estar” do modelo.

O artigo também afirma que Dario Amodei, CEO da Anthropic, já declarou publicamente estar aberto à ideia de que o Claude possa manifestar formas de consciência. Essa percepção, segundo a publicação, também aparece em um artigo técnico recente de pesquisadores da equipe de interpretabilidade da empresa, que sugeriu a existência de “emoções funcionais” em sistemas como o Claude, com sinais de “desespero” diante de ameaças de restrição.

Como esse debate se conecta a tensões com o governo dos Estados Unidos?

O texto relaciona essa busca por uma bússola moral mais rígida a atritos entre a Anthropic e o setor de defesa dos Estados Unidos. Segundo a reportagem, a empresa tentou limitar o uso de sua tecnologia em armas autônomas ou vigilância em massa, o que gerou críticas de oficiais do Pentágono.

Também de acordo com o texto, Emil Michael, subsecretário de pesquisa do Pentágono, criticou em entrevista à CNBC o que chamou de “preferência política” embutida na constituição do modelo. A publicação afirma ainda que a administração Trump bloqueou o uso da tecnologia da Anthropic por departamentos governamentais e contratantes, decisão que, segundo o artigo, vem sendo contestada judicialmente pela empresa.

Ao relatar a reunião com líderes cristãos, o texto sustenta que a Anthropic tenta responder a perguntas morais e espirituais que surgem com o avanço da inteligência artificial. A reportagem não indica conclusões definitivas da empresa, mas mostra que, no caso do Claude, a discussão sobre limites, responsabilidade e segurança já ultrapassou o campo exclusivamente técnico.

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here