Cada vez mais empresas adotam o ChatGPT focadas em aumento de produtividade e lucro. No entanto, a escolha tem sido desastrosa para algumas delas, repetidamente. É o caso da Samsung, que após liberar a ferramenta, vazou informações confidenciais próprias ao menos três vezes.

O incidente ocorreu em menos de três semanas após a proibição original da chaebol, com objetivo de proteger os dados da empresa. No entanto, foi liberada em 11 de março para aumentar a produtividade e manter a equipe envolvida com as últimas ferramentas tecnológicas do mercado.

O material vazado incluem dados confidenciais sobre a medição de equipamentos e dados de produção da solução de dispositivos do conglomerado e da unidade de negócios de semicondutores, segundo informações de uma mídia local.

Um dos funcionários que alegou ter exposto informações, contou à empresa que copiou todo o código fonte problemático de um programa de download de banco de dados de semicondutores, inseriu-o no ChatGPT, e perguntou sobre uma solução.

Samsung

Imagem: Babak Habibi/Unsplash

Outro caso envolve também o carregamento de código de programa, este projetado para identificar equipamentos defeituosos; o terceiro ocorreu em uma tentativa de gerar uma ata automaticamente, após carregar informações da reunião no software.

Após a ciência dos incidentes, a Samsung aplicou medidas de emergência, incluindo a limitação da capacidade de carregar apenas 1024 bytes por pergunta. “Se um acidente semelhante ocorrer mesmo depois que medidas de proteção de informações de emergência forem tomadas, o acesso ao ChatGPT pode ser bloqueado na rede da empresa”, disseram os chefes da Samsung, ao supostamente alertarem os funcionários.

O aviso sobre o cuidado com vazamentos de informações proprietárias, no entanto, já havia sido comunicado anteriormente à liberação do bloqueio geral do ChatGPT.

OpenAI diz poder rever conversas do ChatGPT

Ao que indica o FAQ da empresa de Sam Altman, todos os segredos da Samsung que ajudaram o treinamento do chatbot podem ser acessíveis também à OpenAI. “Suas conversas podem ser revistas por nossos instrutores de IA para melhorar nossos sistemas”, diz uma das respostas do FAQ.

Em adição, a nova política de dados da OpenAI, em vigor desde o último 1º de março, diz que usuários da API devem optar por compartilhar dados para treinar ou melhorar seus respectivos modelos, enquanto os serviços como ChatGPT e DALL-E, exigem que o usuário opte por não fazê-lo para evitar que os dados sejam usados.

Samsung vaza dados confidenciais próprios com uso de ChatGPT

Imagem: Emiliano Vittoriosi/Unsplash

“Removemos qualquer informação pessoalmente identificável dos dados que pretendemos usar para melhorar o desempenho do modelo. Também usamos apenas uma pequena amostra de dados por cliente para nossos esforços de melhorar o desempenho do modelo”, afirma a OpenAI.

Para evitar que novos incidentes como esses ocorram, a Samsung considera a construção de um serviço próprio e interno de IA, segundo reportagens da mídia local coreana.

Com a descoberta, a Samsung se junta à fabricante de chips SK Hynix e a empresa de hardware de consumo LG Display, que trabalham em diretrizes para o uso de IAs conversacionais.

De acordo com o The Korea Times, enquanto houve bloqueio do uso de chatbots na rede interna da SK, salvo sob aprovação de segurança ao funcionário que desejar usar; a LG parece ter decidido por campanhas educacionais para que os colaboradores entendem como proteger informações confidenciais da empresa.

 

 

Com informações The Register e The Korea Times

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários