
O período de lua de mel do ChatGPT acabou?
ChatGPT conquistou o mundo desde seu lançamento no ano passado. No entanto, uma pesquisa recente descobriu que
Por que as empresas estão ficando indiferentes em relação ao ChatGPT?
Não é que duvidem das suas capacidades. Em vez disso, estão preocupados com potenciais riscos de segurança cibernética.
As ferramentas de IA generativa são projetadas para aprender com cada interação. Quanto mais dados você fornece a eles, mais inteligentes eles se tornam. Parece ótimo, certo?
Mas há uma área cinzenta sobre para onde vão os dados, quem os vê e como são usados.
Estas preocupações com a privacidade levaram a autoridade italiana de proteção de dados
Para as empresas, a preocupação é que o ChatGPT possa pegar as informações enviadas pelos usuários, aprender com elas e, potencialmente, deixá-las escapar em futuras interações com outros usuários.
As diretrizes da OpenAI para ChatGPT indicam que os dados do usuário podem ser revisados e usados para refinar o sistema. Mas o que isso significa para a privacidade dos dados?
A resposta não é clara e é isso que está causando a ansiedade.
Um estudo da Cyberhaven descobriu que até 1º de junho, 10,8% dos trabalhadores utilizavam o ChatGPT no trabalho, com 8,6% inserindo informações da empresa. A estatística alarmante é que 4,7% dos trabalhadores inseriram informações confidenciais no ChatGPT.
E devido à forma como o ChatGPT funciona, faltam medidas de segurança tradicionais. A maioria dos produtos de segurança são projetados para proteger arquivos contra compartilhamento ou upload. Mas os usuários do ChatGPT copiam e colam conteúdo em seus navegadores.
Agora, a OpenAI adicionou uma opção de cancelamento. Os usuários podem solicitar que seus dados não sejam utilizados para treinamento adicional.
Mas o opt-out não é a configuração padrão. Portanto, a menos que os utilizadores estejam conscientes e tomem medidas proativas, as suas interações poderão ser usadas para treinar a IA.
As preocupações não param por aí.
Mesmo se você cancelar, seus dados ainda passarão pelo sistema. E embora a OpenAI garanta aos usuários que os dados são gerenciados de forma responsável, o ChatGPT
Também existe o risco de algo dar errado.
Em 21 de março de 2023, a OpenAI encerrou o ChatGPT devido a uma falha que intitulava incorretamente os históricos de bate-papo com nomes de diferentes usuários. Se esses títulos contivessem detalhes privados ou confidenciais, outros usuários do ChatGPT poderiam tê-los visto. O bug também expôs dados pessoais de alguns assinantes do ChatGPT Plus.
O primeiro grande vazamento de dados do ChatGPT ocorreu no início deste ano e envolveu a gigante da tecnologia Samsung . De acordo com a Bloomberg, o código-fonte interno sensível foi
Um vazamento como esse pode ter implicações graves.
E não foi apenas a Samsung. A Amazon , outro titã da indústria tecnológica, tinha as suas próprias preocupações. A empresa
Se o ChatGPT possui dados proprietários da Amazon, o que o impede de divulgá-los inadvertidamente aos concorrentes?
A rápida evolução e adoção de ferramentas de IA generativa deixaram os órgãos reguladores tentando recuperar o atraso. Existem diretrizes limitadas sobre o uso responsável.
Então, se houver uma violação de dados por causa da IA, quem será o responsável – a empresa que utiliza a ferramenta, os funcionários ou o fornecedor de IA?
Em OpenAI
Isso coloca o risco nas empresas. Sem regulamentos claros, cabe-lhes decidir qual o melhor curso de acção. É por isso que muitos estão agora se tornando mais hesitantes.
Quando se trata de implantar novas tecnologias, as empresas muitas vezes recorrem aos líderes tecnológicos. Se uma gigante da tecnologia adota uma inovação, muitas vezes isso é visto como um sinal verde para outras empresas seguirem o exemplo.
Assim, quando uma empresa tão influente como a Microsoft oferece sinais contraditórios em relação a uma tecnologia, as repercussões são sentidas em todos os setores.
Por um lado, a Microsoft expressou reservas quanto ao uso de ferramentas de IA generativa. Em janeiro, a Microsoft alertou os funcionários para não compartilharem “dados confidenciais” com o ChatGPT.
Mas a Microsoft também defende sua própria versão da tecnologia, o Azure ChatGPT. Esta iteração promete um ambiente mais seguro e controlado para usuários corporativos.
Esta mudança levanta questões: O Azure ChatGPT é genuinamente imune aos riscos que a Microsoft apontou no cenário mais amplo da IA generativa? Ou será esta uma manobra estratégica para garantir que as empresas permaneçam dentro do ecossistema da Microsoft?
Ao avaliar qualquer nova tecnologia, as empresas são frequentemente apanhadas num cabo de guerra entre os potenciais benefícios e as potenciais armadilhas.
Com o ChatGPT, as empresas parecem estar adotando uma abordagem de esperar para ver.
À medida que a tecnologia e os seus regulamentos evoluem, espera-se que seja possível estabelecer uma utilização mais segura e transparente.
Por enquanto, ChatGPT é ótimo para obter ajuda e conteúdo de codificação. Mas eu não confiaria nele dados proprietários.