As alternativas de diversões encontradas na internet, como os desafios e filtros desenvolvidos por aplicativos, aumentam a cada ano. Um dos casos mais recentes é o do FaceApp e sua retomada de popularidade ao redor do mundo ao disponibilizar tecnologia que indica como a pessoa seria se fosse do sexo oposto. O que muitos não sabem é até que ponto uma brincadeira pode trazer questões tão complexas a ponto de envolver o controle governamental, por exemplo. Isso pode até parecer exagero, mas não é.
Antes de citar os prós e contras de aplicativos como este, é necessário explicar como eles funcionam. O êxito do realismo das imagens está no uso de Redes Neurais Artificiais, formados por algoritmos de aprendizado profundo capaz de captar uma imagem de entrada e atribuir importâncias como pesos e vieses a diversos conceitos e objetos da imagem e conseguir diferenciar umas das outras. No caso específico do FaceApp, são utilizadas Redes Neurais Convolucionais, com algoritmos que podem, por exemplo, classificar e reconhecer objetos em imagens, incluindo as rugas que dão ao rosto humano um aspecto mais envelhecido.
Usando este exemplo, é válido relembrar que, no ano passado, o app chegou ao topo da lista de downloads em lojas virtuais ao lançar o filtro “idade” para os sistemas iOS e Android. A ascensão foi impulsionada pela adesão e divulgação de personalidades como atletas, artistas, influenciadores digitais, entre outros, que publicaram em suas redes sociais imagens com simulações da aparência deles mesmos se tivessem idade entre 70 e 80 anos. Rapidamente o aplicativo virou febre entre fãs e seguidores.
E na mesma proporção do sucesso, o app trouxe polêmicas. Acontece que, apesar de trazer a proposta de uma brincadeira genuína, o usuário cede informações pessoais como localização, foto e páginas navegadas na internet. De acordo com a política de privacidade, o próprio aplicativo admite que pode coletar qualquer tipo de informação que julgar conveniente, sem especificar quais dados ou de que forma serão trabalhados. Ou seja, a segurança dos dados é extremamente vaga.
Na época, os Estados Unidos trouxeram à tona uma série de questionamentos sobre privacidade e coleta de dados, quando o senador democrata Chuck Schumer pediu que o FBI e a Federal Trade Comission abrissem investigação sobre o FaceApp, sob responsabilidade de uma empresa russa, a Wirelles Lab, sediada em São Petersburgo. Recentemente, o app retomou a popularidade no mundo ao disponibilizar um filtro que indica como a pessoa seria se fosse do sexo oposto.
Além do FaceApp, outros apps utilizam a inteligência artificial por meio do reconhecimento facial para coletar dados dos usuários sem especificar de que maneira eles serão usados. E do mesmo modo que existem os problemas, algumas vantagens trazidas por este recurso também foram observadas.
Um ano antes, em 2018, uma plataforma reconhecimento facial desenvolvida pela Microsoft ajudou a polícia de Nova Dehli, na índia, a localizar e resgatar 3 mil crianças desaparecidas em apenas quatro dias – ainda na fase piloto. O registro fotográfico das crianças estava desatualizado, porque as fotos que os pais tinham eram de quando a criança ainda não havia sumido. Na ocasião, a tecnologia foi fundamental para encontrá-las, pois o software criado conseguiu comparar dezenas de imagens dos menores procurados no país.
Novos posicionamentos e leis de segurança
Antes da pandemia, algumas das empresas gigantes de tecnologia acenavam com a possibilidade de investir fortemente no mercado a partir do uso da Inteligência Artificial para reconhecimento facial. No entanto, após protestos pela morte de George Floyd, companhias como Microsoft, IBM e Amazon decidiram recuar na pesquisa e venda de tecnologias capazes de identificar rostos, pois esperam regulação.
Este recuo aconteceu, principalmente, pelo fato de que a tecnologia tem sido utilizada por governos autoritários para perseguir e promover políticas antidemocráticas ao redor do mundo, por meio do reconhecimento facial. Nas manifestações relacionadas à morte de Floyd, percebeu-se que policiais tem usado o reconhecimento facial para procurar pessoas que tenham qualquer pendência judicial antiga para vinculá-las a perfis de mídias sociais e prendê-las. Depois de constatados alguns casos, a Microsoft, por exemplo, afirmou que não pretende comercializar a tecnologia para agências de segurança e se comprometeu a não reverter a decisão por pelo menos um ano, até que uma legislação federal específica seja criada.
No Brasil, os recursos de reconhecimento facial estão associados à Lei Geral de Proteção de Dados (LGPD), segundo a lei federal nº 13.709/2018, uma vez que a foto das pessoas entra como um dado pessoal. Um dos primeiros artigos da legislação cobre a questão de autorização do dado para um determinado processamento, sendo que, se o usuário não estiver de acordo com o uso das informações para este propósito, ele pode solicitar isso ao controlador.
Se qualquer empresa quiser utilizar as fotos que estiverem na plataforma, ela é obrigada a informar ao usuário de forma clara quais são os propósitos do processamento, sendo necessária a autorização formal da pessoa para isso. Neste contexto, é válido refletir até que ponto vale a pena as diversões em redes sociais, já que algumas podem trazer riscos à privacidade dos dados e estarem associadas a questões de controle governamental.
Victor Hugo Germano é CEO da Lambda3
Autor: Victor Hugo Germano, CEO da Lambda3
A comunicação corporativa é essencial para o mercado.
Bruno Alvarez desbanca mais de 3 mil artistas inscritos e leva prêmio de R$10 mil
Com o apoio do Programa Brazil Machinery Solutions (BMS), nove empresas brasileiras estarão como expositoras na Agroexpo, em Bogotá; Se juntam a este grupo outras seis companhias, para participação de uma Rodada Internacional de Negócios inédita no país...