O aplicativo ChatGPT para iPhone provoca uma reprise das preocupações com a privacidade

Desde que a OpenAI introduziu o ChatGPT, os defensores da privacidade alertaram os consumidores sobre a ameaça potencial à privacidade representada por aplicativos de IA generativos. A chegada de um aplicativo ChatGPT na Apple App Store desencadeou uma nova rodada de cautela.

“(B) antes de entrar de cabeça no aplicativo, tome cuidado para não ficar muito pessoal com o bot e colocar sua privacidade em risco”, alertou Muskaan Saxena em Radar Tecnológico.

O aplicativo iOS vem com uma compensação explícita da qual os usuários devem estar cientes, ela explicou, incluindo esta advertência: “Chats anônimos podem ser revisados ​​por nosso treinador de IA para melhorar nossos sistemas”.

O anonimato, no entanto, não é um ingresso para a privacidade. Bate-papos anônimos são despojados de informações que possam vinculá-los a usuários específicos. “No entanto, o anonimato pode não ser uma medida adequada para proteger a privacidade do consumidor porque os dados anônimos ainda podem ser reidentificados combinando-os com outras fontes de informação”, Joey Stanford, vice-presidente de privacidade e segurança da Platform.shfabricante de uma plataforma de serviços baseada em nuvem para desenvolvedores com sede em Paris, disse ao TechNewsWorld.

“Descobriu-se que é relativamente fácil remover o anonimato das informações, especialmente se as informações de localização forem usadas”, explicou Jen Caltrider, pesquisadora principal do Mozilla Privacidade não incluída projeto.

“Publicamente, a OpenAI diz que não está coletando dados de localização, mas sua política de privacidade para ChatGPT diz que eles podem coletar esses dados”, disse ela ao TechNewsWorld.

No entanto, o OpenAI alerta os usuários do aplicativo ChatGPT de que suas informações serão usadas para treinar seu grande modelo de linguagem. “Eles são honestos sobre isso. Eles não estão escondendo nada”, disse Caltrider.

Levando a privacidade a sério

Caleb Withers, assistente de pesquisa do Center for New American Security, um think tank de segurança e defesa nacional em Washington, DC, explicou que se um usuário digitar seu nome, local de trabalho e outras informações pessoais em uma consulta do ChatGPT, esses dados não será anonimizado.

“Você deve se perguntar: ‘Isso é algo que eu diria a um funcionário da OpenAI?’”, disse ele ao TechNewsWorld.

A OpenAI afirmou que leva a privacidade a sério e implementa medidas para proteger os dados do usuário, observou Mark N. Vena, presidente e principal analista da Pesquisa SmartTech em San Jose, Califórnia

“No entanto, é sempre uma boa ideia revisar as políticas e práticas de privacidade específicas de qualquer serviço que você usa para entender como seus dados são tratados e quais proteções estão em vigor”, disse ele ao TechNewsWorld.


Por mais dedicada que seja uma organização à segurança de dados, podem existir vulnerabilidades que podem ser exploradas por agentes mal-intencionados, acrescentou James McQuiggan, defensor da conscientização de segurança da KnowBe4um provedor de treinamento de conscientização de segurança em Clearwater, Flórida.

“É sempre importante ser cauteloso e considerar a necessidade de compartilhar informações confidenciais para garantir que seus dados estejam o mais seguros possível”, disse ele ao TechNewsWorld.

“Proteger sua privacidade é uma responsabilidade compartilhada entre os usuários e as empresas que coletam e usam seus dados, o que está documentado naqueles longos e frequentemente não lidos Contratos de Licença de Usuário Final”, acrescentou.

Proteções Embutidas

McQuiggan observou que os usuários de aplicativos generativos de IA são conhecidos por inserir informações confidenciais, como aniversários, números de telefone e endereços postais e de e-mail em suas consultas. “Se o sistema de IA não estiver adequadamente protegido, ele pode ser acessado por terceiros e usado para fins maliciosos, como roubo de identidade ou publicidade direcionada”, disse ele.

Ele acrescentou que os aplicativos generativos de IA também podem revelar inadvertidamente informações confidenciais sobre os usuários por meio do conteúdo gerado. “Portanto”, continuou ele, “os usuários devem conhecer os riscos potenciais à privacidade do uso de aplicativos generativos de IA e tomar as medidas necessárias para proteger suas informações pessoais”.

Ao contrário dos desktops e laptops, os telefones celulares possuem alguns recursos de segurança integrados que podem conter invasões de privacidade por aplicativos executados neles.

No entanto, como McQuiggan aponta, “Embora algumas medidas, como permissões de aplicativos e configurações de privacidade, possam fornecer algum nível de proteção, elas podem não proteger completamente suas informações pessoais de todos os tipos de ameaças à privacidade, como acontece com qualquer aplicativo carregado no smartphone. ”

Vena concordou que medidas integradas como permissões de aplicativos, configurações de privacidade e regulamentos da loja de aplicativos oferecem algum nível de proteção. “Mas eles podem não ser suficientes para mitigar todas as ameaças à privacidade”, disse ele. “Desenvolvedores de aplicativos e fabricantes de smartphones têm abordagens diferentes em relação à privacidade, e nem todos os aplicativos seguem as melhores práticas.”

Mesmo as práticas da OpenAI variam de desktop para celular. “Se você estiver usando o ChatGPT no site, poderá acessar os controles de dados e desativar o uso do bate-papo para melhorar o ChatGPT. Essa configuração não existe no aplicativo iOS”, observou Caltrider.

Cuidado com as informações de privacidade da App Store

Caltrider também achou as permissões usadas pelo aplicativo iOS da OpenAI um pouco confusas, observando que “na Google Play Store, você pode verificar e ver quais permissões estão sendo usadas. Você não pode fazer isso através da Apple App Store.”

Ela alertou os usuários sobre a dependência de informações de privacidade encontradas nas lojas de aplicativos. “A pesquisa que fizemos nas informações de segurança da Google Play Store mostra que realmente não são confiáveis”, observou ela.


“Pesquisas feitas por outras pessoas na App Store da Apple mostram que ela também não é confiável”, ela continuou. “Os usuários não devem confiar nas informações de segurança de dados que encontram nas páginas do aplicativo. Eles devem fazer suas próprias pesquisas, o que é difícil e complicado.”

“As empresas precisam ser mais honestas sobre o que estão coletando e compartilhando”, acrescentou. “A OpenAI é honesta sobre como eles vão usar os dados que coletam para treinar o ChatGPT, mas depois dizem que, uma vez que tornem os dados anônimos, podem usá-los de várias maneiras que vão além dos padrões da política de privacidade.”

Stanford observou que a Apple tem algumas políticas em vigor que podem abordar algumas das ameaças à privacidade representadas por aplicativos generativos de IA. Eles incluem:

  • Exigir o consentimento do usuário para coleta e compartilhamento de dados por aplicativos que usam tecnologias generativas de IA;
  • Fornecer transparência e controle sobre como os dados são usados ​​e por quem por meio do recurso AppTracking Transparency, que permite aos usuários desativar o rastreamento entre aplicativos;
  • Aplicar padrões e regulamentos de privacidade para desenvolvedores de aplicativos por meio do processo de revisão da App Store e rejeitar aplicativos que os violem.

No entanto, ele reconheceu: “Essas medidas podem não ser suficientes para impedir que aplicativos generativos de IA criem conteúdo inapropriado, prejudicial ou enganoso que possa afetar a privacidade e a segurança dos usuários”.

Solicitação de lei federal de privacidade de IA

“OpenAI é apenas uma empresa. Existem vários modelos de linguagem grandes em criação, e é provável que muitos mais surjam em um futuro próximo”, acrescentou Hodan Omaar, analista sênior de políticas de IA da Centro de Inovação de Dadosum think tank que estuda a interseção de dados, tecnologia e políticas públicas, em Washington, DC

“Precisamos ter uma lei federal de privacidade de dados para garantir que todas as empresas cumpram um conjunto de padrões claros”, disse ela ao TechNewsWorld.

“Com o rápido crescimento e expansão da inteligência artificial”, acrescentou Caltrider, “definitivamente é necessário haver vigilantes e regulamentos sólidos e fortes para ficar de olho no resto de nós à medida que isso cresce e se torna mais prevalente”.