A Alphabet, dona da Google, recomendou internamente que os seus trabalhadores tenham precaução a lidar com chatbots como o ChatGPT ou o seu próprio Bard e aconselham a que não sejam introduzidos dados confidenciais nestes sistemas, com receio de que existam fugas.
A Alphabet receia, por um lado, que os dados inseridos sejam vistos depois por revisores humanos que estão a desenvolver os chatbots. Por outro lado, os próprios chatbots podem depois usar a informação introduzida para se treinar melhor.
Recorde-se que a Samsung confirmou no mês passado que foi vítima de uma fuga de informação depois de funcionários terem colocado dados internos no ChatGPT. Também a Amazon enviou uma comunicação interna a pedir que os trabalhadores não colocassem dados confidenciais, incluindo código, com estes bots, noticia o Gizmodo. Na Apple, os trabalhadores estão proibidos de usar o ChatGPT e o GitHub Copilot da Microsoft, com a empresa de Cupertino a estar interessada em desenvolver os seus próprios grandes modelos de linguagem.
O Bard é a proposta da Google neste setor, lançada recentemente para concorrer com o ChatGPT e construído com o LaMDA, de Language Model for Dialogue Applications. O sistema tarda a chegar à Europa, com os reguladores a estarem muito atentos no que toca a configurações de privacidade deste.