Empresa está preocupada com o vazamento de dados confidenciais
De acordo com artigo publicado pelo Wall Street Journal, a Apple implementou restrições no uso do ChatGPT e de outras ferramentas externas de inteligência artificial por seus funcionários. A empresa está desenvolvendo tecnologia semelhante e teme que dados confidenciais possam vazar através dessas ferramentas.
Sua principal atratividade é conseguir responder a perguntas, redigir textos, fazer busca de informações na internet, entre outras atividades que emulam um comportamento humano. Para isso, a tecnologia resgata as informações providas pelo usuário quando ele utiliza a plataforma e as devolve ao servidor para melhorias e atualizações do sistema.
O jornal também relata que a Apple aconselhou seus funcionários a não utilizarem o Copilot, uma ferramenta do GitHub controlada pela Microsoft, que automatiza funções de produção de código de software.
Recentemente, a OpenAI, uma empresa apoiada pela Microsoft e responsável pela criação do ChatGPT, anunciou a introdução de um “modo incógnito” para o ChatGPT. Esse modo não armazena o histórico de conversas dos usuários e não o utiliza para melhorar sua inteligência artificial.
Além da Apple, outras companhias também têm demonstrado receio no uso da ferramenta. Neste ano, a JPMorgan Chase já barrou o uso do ChatGPT, assim como a Verizon.
O que MONEY REPORT publicou
- Algumas reflexões sobre o Chat GPT
- Itália bloqueia ChatGPT por violação de regras de dados
- Exame: cinco coisas que (ainda) não contaram sobre o ChatGPT
- Chinesa Baidu anuncia rival do ChatGPT para março
- Microsoft investirá US$ 10 bi em dona do ChatGPT
- ChatGPT pode se tornar startup mais valiosa dos EUA
- 56% dos brasileiros confiam na Inteligência Artificial