OpenAI altera acordo com Defesa dos EUA para evitar vigilância em massa - Brasileira.News

    OpenAI altera acordo com Defesa dos EUA para evitar vigilância em massa

    0
    15

    A OpenAI vai alterar seu acordo com o Departamento de Defesa dos EUA para proibir explicitamente o uso de seus sistemas de Inteligência Artificial (IA) em vigilância em massa contra cidadãos americanos. A informação foi divulgada por Sam Altman, CEO da OpenAI. De acordo com informações do Engadget, Altman publicou um memorando interno enviado anteriormente aos funcionários no X, onde afirma que a empresa ajustará o acordo para deixar esse ponto claro.

    Especificamente, o documento diz:

    “Em conformidade com as leis aplicáveis, incluindo a Quarta Emenda à Constituição dos Estados Unidos, a Lei de Segurança Nacional de 1947, a Lei FISA de 1978, o sistema de IA não será intencionalmente usado para vigilância doméstica de pessoas e cidadãos dos EUA.
    Para que não haja dúvidas, o Departamento entende que essa limitação proíbe o rastreamento, a vigilância ou o monitoramento deliberado de pessoas ou cidadãos dos EUA, inclusive por meio da aquisição ou uso de informações pessoais ou identificáveis ​​adquiridas comercialmente.”

    Altman também afirmou no memorando que a agência garantiu que seus serviços não serão usados ​​por suas agências de inteligência, incluindo a NSA, sem uma modificação em seu contrato. Ele acrescentou que, se recebesse o que acreditasse ser uma ordem inconstitucional, preferiria ir para a cadeia a cumpri-la.

    — Publicidade —
    Google AdSense • Slot in-article

    ## Por que a OpenAI decidiu alterar o acordo com o Departamento de Defesa?

    O CEO da OpenAI admitiu no memorando que a empresa não deveria ter se apressado em fechar o acordo na sexta-feira, 27 de fevereiro, já que as questões eram “super complexas e exigiam uma comunicação clara”. Altman explicou que a empresa estava “tentando atenuar as coisas e evitar um resultado muito pior”, mas que “pareceu oportunista” no final. A OpenAI anunciou a parceria logo após o então presidente Donald Trump ordenar que todas as agências do governo dos EUA parassem de usar o Claude e quaisquer outros serviços da Anthropic.

    ## Qual era a pressão sobre a Anthropic?

    O Departamento de Defesa e o secretário Pete Hegseth pressionaram a Anthropic para remover as proteções de sua IA, para que ela pudesse ser usada para todos os fins “legais”. Isso inclui vigilância em massa e o desenvolvimento de armas totalmente autônomas. A Anthropic se recusou a ceder às exigências de Hegseth e, em comunicado, disse que “nenhuma intimidação ou punição” mudaria sua “posição sobre vigilância doméstica em massa ou armas totalmente autônomas”. Trump emitiu a ordem como resultado. O Departamento de Defesa também tomou as primeiras medidas para designar a Anthropic como um “risco à cadeia de suprimentos”, o que normalmente é reservado para empresas chinesas que se acredita estarem trabalhando com o governo de seu país.

    ## O que a OpenAI espera para o futuro?

    Altman disse que, em suas conversas com autoridades dos EUA, reiterou que a Anthropic não deveria ser designada como um risco à cadeia de suprimentos e que esperava que o Departamento de Defesa oferecesse a ela o mesmo acordo que a OpenAI concordou. Em uma sessão de AMA no X durante o fim de semana, Altman esclareceu que não conhecia os detalhes do acordo da Anthropic e como ele diferia do que a OpenAI assinou. Mas se fosse o mesmo, ele achava que a Anthropic deveria ter concordado com ele.

    Após a notícia sobre o acordo da OpenAI, a Anthropic alcançou o primeiro lugar no ranking de aplicativos gratuitos da App Store, superando o ChatGPT e o Google Gemini. A Anthropic, aproveitando a popularidade repentina de Claude, lançou uma ferramenta de importação de memória para facilitar a mudança para seu chatbot de outra empresa. Enquanto isso, as desinstalações do ChatGPT aumentaram 295% dia após dia, de acordo com a Sensor Tower.

    DEIXE UM COMENTÁRIO

    Please enter your comment!
    Please enter your name here