Agência de espionagem britânica diz que chatbots de IA como o GPT-4 são ameaça à segurança

Por Fernando Castilho 2 Min Read

A agência de espionagem do Reino Unido afirma que consultas em ferramentas de inteligência artificial generativa podem ser facilmente hackeadas ou vazadas

O Centro Nacional de Segurança Cibernética (NCSC), agência de espionagem do Reino Unido, fez um alerta na última quarta-feira (15/03) em postagem no seu blog para a segurança dos chatbots de Inteligência Artificial. Segundo análises feitas pela organização, as consultas em ferramentas de inteligência artificial generativa podem ser hackeadas ou vazadas. A nota ainda argumenta que as ferramentas podem ter usos fraudulentos, como aplicação em “e-mails de phishing convincentes”, e consequentemente, melhorar a forma como os golpes cibernéticos são aplicados.

As consultas inseridas nos chatbots são armazenadas pelos provedores, segundo a postagem. Assim, elas são utilizadas para aperfeiçõar as versões seguintes”, conforme apura o Insider. A partir disso, a NCSC diz que “as consultas armazenadas online podem ser hackeadas, vazadas ou, mais provavelmente, tornadas acessíveis acidentalmente. Isso pode incluir informações potencialmente identificáveis”.

Estas consultas vazadas podem ser um risco à privacidade. Por exemplo: alguém pode pesquisar no chatbot os sintomas de uma determinada doença. Por não ser confidencial, outra pessoa pode conseguir acessar a busca, e assim, gerar um desconforto.

Rasmus Rothe, cofundador da Merantix, uma plataforma de investimento em IA, disse ao Insider: “O principal problema de segurança em funcionários que interagem com ferramentas como ChatGPT é que a máquina aprenderá com essas interações – e isso pode incluir aprender e, consequentemente, repetir informações confidenciais”.

A OpenAI diz que analisa as conversas com o ChatGPT “para melhorar nossos sistemas e garantir que o conteúdo esteja em conformidade com nossas políticas e requisitos de segurança”. Empresas como Amazon e JPMorgan aconselharam os funcionários a não usar o ChatGPT por temores de vazamento de informações.

Compartilhe esse Artigo
Leave a comment