Foi num canal interno da plataforma de comunicação Slack na Amazon que um advogado da empresa publicou uma recomendação sobre os riscos do ChatGPT. De acordo com a publicação Insider, o advogado pede especificamente que os funcionários não partilhem “qualquer informação confidencial da Amazon (incluindo código da Amazon) em que estejam a trabalhar”. A recomendação surge depois de aparecerem relatos de que a ferramenta da OpenAI foi detetada a dar respostas que replicam dados internos da Amazon.
O advogado detalha precisamente que “isto é importante porque os vossos inputs podem ser usados como dados de treino para uma iteração futura do ChatGPT e não queremos que os seus outputs incluam algo que se pareça remotamente com as nossas informações confidenciais (e já vi instâncias onde o output parece-se bastante com material existente)”, cita o Insider.
Ainda na mesma empresa, o ChatGPT foi visto a responder corretamente a perguntas feitas durante uma entrevista de emprego para uma vaga de programador e chegou mesmo a sugerir melhorias em partes do código a que foi exposto. As transcrições da entrevista foram publicadas no mesmo canal e alguns funcionários confessaram estar impressionados e, ao mesmo tempo, com receio sobre o impacto que este desempenho possa vir a ter nas entrevistas futuras.