Utilização do ChatGPT por funcionário da Samsung leva a vazamentos de dados confidenciais

Untitled-design-3 (1).png

A divisão de semicondutores da Samsung contou com o ChatGPT para ajudar a resolver problemas em seu código-fonte. No entanto, enquanto usavam o chatbot de IA, eles acidentalmente divulgaram informações confidenciais, como o código-fonte de um novo programa e notas de reuniões internas sobre seu hardware. Infelizmente, isso não foi um incidente isolado, pois foram relatados três incidentes em um mês.

Para evitar futuras violações semelhantes, a Samsung está agora a trabalhar no desenvolvimento de uma ferramenta de IA semelhante ao ChatGPT que é exclusivamente para uso interno pelos funcionários. Isso permitirá que os trabalhadores da fábrica recebam assistência rápida ao mesmo tempo que protegem as informações sensíveis da empresa. No entanto, esta nova ferramenta só processará prompts com um tamanho de 1024 bytes ou menos.

O problema ocorreu porque o ChatGPT é gerido por uma empresa terceirizada que usa servidores externos. Portanto, quando a Samsung inseriu seu código, sequências de teste e conteúdo de reuniões internas no programa, os dados vazaram. A Samsung informou prontamente seus líderes e funcionários sobre o risco de comprometer informações confidenciais. Até 11 de março, a Samsung não permitia que seus funcionários usassem o chatbot.

A Samsung não é a única empresa a lidar com este problema. Muitas empresas estão restritivas ao uso do ChatGPT até estabelecerem uma política clara em relação ao uso de IA generativa. Embora o ChatGPT forneça uma opção de exclusão para a coleta de dados do usuário, vale ressaltar que as informações inseridas no serviço ainda podem ser acessadas pelo seu desenvolvedor.

O que é o ChatGPT e como funciona?

ChatGPT é uma aplicação de IA desenvolvida pela OpenAI que utiliza aprendizagem profunda para produzir texto semelhante ao humano em resposta a solicitações do utilizador. Pode gerar texto em vários estilos e para diversos propósitos, incluindo escrever textos, responder a perguntas, redigir e-mails, manter conversas, traduzir linguagem natural para código e explicar código em várias linguagens de programação.

ChatGPT funciona através da previsão da próxima palavra num determinado texto usando os padrões que aprendeu a partir de uma grande quantidade de dados durante o seu processo de treino. Ao analisar o contexto da prompt e o seu passado de aprendizagem, ChatGPT gera uma resposta com o objetivo de ser o mais natural e coerente possível.

Que medidas a Samsung tomou para prevenir futuros vazamentos?

Após os vazamentos de dados causados pelo ChatGPT, a Samsung tomou várias medidas para evitar que incidentes semelhantes aconteçam novamente. Em primeiro lugar, a empresa aconselhou seus funcionários a terem cautela ao compartilhar dados com o ChatGPT. Eles também implementaram uma restrição no tamanho das perguntas enviadas ao serviço, limitando-as a 1024 bytes.

Além disso, a Samsung está atualmente desenvolvendo uma ferramenta de IA semelhante ao ChatGPT, mas exclusivamente para uso interno dos funcionários. Isso garantirá que os trabalhadores da fábrica recebam assistência rápida enquanto protegem informações sensíveis da empresa. Até o desenvolvimento desta ferramenta, a Samsung havia alertado seus funcionários sobre os potenciais riscos associados ao uso do ChatGPT. Eles também destacaram que os dados inseridos no ChatGPT são transmitidos e armazenados em servidores externos, o que torna impossível para a empresa controlar os dados após a sua transferência.

Quais foram as consequências para os funcionários que vazaram dados confidenciais?

As consequências para os colaboradores da Samsung que divulgaram dados confidenciais ao ChatGPT não foram explicitamente mencionadas nas informações disponíveis. No entanto, a Samsung Electronics está tomando medidas para evitar futuros vazamentos de informações sensíveis através do ChatGPT, incluindo a imposição de um limite de 1024 bytes no tamanho das perguntas enviadas. A empresa também alertou seus funcionários sobre os potenciais riscos de usar o ChatGPT.

Além disso, a Samsung Semiconductor está desenvolvendo sua própria ferramenta de IA para uso interno pelos funcionários, que será restrita ao processamento de solicitações com até 1024 bytes. Essas ações indicam que a Samsung leva a proteção de suas informações confidenciais a sério e está implementando medidas para mitigar os riscos associados ao uso do ChatGPT.

Que tipo de informação confidencial foi divulgada?

Quantas vezes os funcionários da Samsung vazaram dados confidenciais para o ChatGPT?

De acordo com os resultados da pesquisa, funcionários da Samsung vazaram informações confidenciais da empresa para o ChatGPT em pelo menos três ocasiões.

Artigos Relacionados

Ver Mais >>

Desbloqueie o poder da IA com HIX.AI!