O Lado negativo do reconhecimento facial – Janaina – Jéssica – Janderson
setembro 2, 2020A06 11082020 – Trabalho Bimestral (Podcast Gravado)
Janaina – Jessica – Janderson
O reconhecimento facial é uma tecnologia relativamente nova, e isso, nos leva a ter incertezas sobre a sua utilização e privacidade dos dados. Com esse tema, vamos dar início ao nosso podcast de hoje.
Com vocês!!!!! De olho nos detalhes – nossa visão sobre a inovação!
Por onde andamos, estamos sendo vigiados, pelas ruas da cidade, no transporte público, nas empresas e até nos jogos nos momentos de lazer.
Com o desenvolvimento do reconhecimento facial, cada vez mais, o percebemos em nosso cotidiano, ele está sendo utilizado por instituições públicas e privadas, e até em dispositivos que cabem na nossa palma da nossa mão, e nesse momento, nos deparamos com as questões relacionadas à privacidade.
Por exemplo, quando saímos de nossas casas para ir a lugares públicos temos o direito de sermos anônimos, e que não saibam quem nós somos. Não somos pessoas públicas, portanto temos o direito que os nossos dados biométricos e de reconhecimento, sejam preservados, e não disponíveis a qualquer um.
Já pensou em um simples passeio no parque alguém conseguir saber exatamente onde você está, quem você é e ainda conseguir saber se você está feliz, triste, ou sem expressão? Não seria incomodo se te pegasse em um dia ruim?
Podemos ainda, explorar um outro ponto, como estamos falando de uma tecnologia nova e como consequência disso, o reconhecimento de pessoas ainda não é preciso, vamos simular a seguinte situação:
Alguém, muito semelhante a você, comete um crime. A pessoa em questão, foge do local, e não é mais localizada.
De repente, você está em um lugar público e as câmeras te reconhecem como “o suspeito procurado”. As autoridades podem ir até você, te levar até a delegacia e enquanto isso você é tratado como um criminoso até que provem o contrário.
Parece fora da realidade não?
Isso ocorreu no Rio de Janeiro no dia 09/07/2019 conforme a notícia disponibilizada no site G1.com
Link: https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml ,
Uma mulher foi confundida com uma foragida da Justiça, acusada pelos crimes de homicídio e ocultação de cadáver. A suspeita foi detida e levada até a delegacia, pois estava no momento, sem documentos. Após esse transtorno conseguiram confirmar a sua real identidade e perceberam que não era quem procuravam.
Seguindo o raciocínio de que estamos utilizando uma tecnologia falha, que pode estar sujeita a invasões, vamos falar um pouco sobre os hackers, Hackers são perigosos tanto na hora de burlar o sistema de reconhecimento facial, quanto na hora pegar seus dados.
Já que falamos em roubo de dados, imaginem que, um hacker invade um banco de dados de sistema de reconhecimento facial,
Com essa invasão, ele pode pegar a localização de determinada pessoa e vende-la sem problemas no mercado negro.
já imaginou por exemplo, quanto vale a localização real e autenticada do presidente Bolsonaro? Ou do Barack Obama.
No mercado negro podem valer milhões.
Ainda sobre vulnerabilidade. Você sabia que existe um software que pode burlar o reconhecimento facial?
Dois pesquisadores utilizaram o CycleGAN (esse software é capaz de mesclar fotografias criando uma só face), fazendo uma pessoa se parecer com a outra, e assim passar pela “identificação” dos softwares de reconhecimento facial.
Já sobre privacidade; Xinjiang, fica localizada na china, e é uma das regiões mais vigiada do país. Segundo documentos da MegVii, uma única câmera da empresa é capaz de analisar até mil pessoas por frame capturado, identificar seus rostos e checar, em base de dados públicas, se há entre os monitorados pessoas procuradas pela Justiça.
As identificações são feitas para procurar criminosos, manter a segurança pública e para monitorar “cidadãos desobedientes”, como aqueles que jogam papel no chão, fumam em lugares proibidos, não atravessam a rua no lugar certo.
Os “cidadãos desobedientes” não são multados ou sofrem punições graves, porém tem um telão de 200 polegadas nos cruzamentos mais populares da cidade onde é exibido a imagem das pessoas que passam por ali, não contente em expor você e todos a sua volta o governo ainda pode enviar cartas para sua casa ou trabalho para informar que você é um cidadão desobediente, pois cometeu pequenas infrações mais de uma vez.
Outro ponto negativo dessa tecnologia é que não sabemos até que ponto ela vai ser usada apenas para a nossa segurança, ela pode ser utilizada para fazer marketing.
Por exemplo, você já imaginou passar na frente de uma loja olhar a vitrine e um software julgar o que você acha bonito, feio ou legal só pela a sua expressão facial?
Hoje utilizando o GOOGLE podemos procurar faces de pessoas semelhantes,
Em um ambiente hipotético, essa loja pode pegar a imagem do seu rosto e pesquisar no GOOGLE, com isso ela pode achar seus dados com Nome, Idade, Região onde mora, redes sociais, etc.
Com esses dados e um marketing bom essa loja pode “bombardear” as suas pesquisas e mídias sociais com propagandas de produtos que você “gostou” apenas pelo fato de você passar e olhar uma vitrine.
É bom lembrarmos que o Facebook, Instagram, Google e Youtube, já fazem o cruzamento de nossos dados, com o que pesquisamos, para mandar propagandas do que pode nos interessar, mas até que ponto queremos isso?
Para finalizar vamos falar sobre uma falha que pode ocasionar um grande desconforto quando se fala em identificação.
Vamos citar um caso da IBM – Você sabia que os bancos de imagem, ainda tem uma grande deficiência étnica? Temos uma taxa de erro de 35% que interfere na identificação de mulheres e negros.
Isso ocorre, pois, o banco está alimentado com predominância de imagens de homens de cor branca, assim a inteligência artificial aprendeu a identificar com mais detalhes, e maior eficiência o rosto de homens de cor branca, A IA entende que pessoas diferentes dessa maioria, são todas “iguais”.
A Inteligência Artificial pode sim, ser extremamente útil, e deve facilitar muito a vida, mas precisamos cuidar muito com a questão de privacidade,
Encerramos assim, nosso episódio de Podcast.
Até a próxima.
Referências: