Vão ser ouvidos especialistas, investigadores, ativistas e empresários, sobre o desenho e o impacto desta tecnologia.
Helena Machado, investigadora no Centro de Investigação e Estudos de Sociologia (CIES) no ISCTE-IUL, está a desenvolver o projeto fAIces com o objetivo de estudar as implicações éticas, políticas e sociais dos sistemas de análise facial com recurso a inteligência artificial.
Quando uma máquina lê um rosto, não lê só uma imagem. De acordo com parâmetros matemáticos quantificáveis ela consegue definir que emoção é expressa nesse rosto e inscreve regras sobre o que isso significa, se se trata de uma emoção suspeita ou aceitável, se é normal ou não é.
Isto é bastante desafiador quando pensamos no tipo de sociedade que queremos.
“Em vez de sermos prescritivos e dizermos o que está certo e o que está errado, nós vamos ouvir pessoas com diferentes posicionamentos para darem o seu ponto de vista em relação àquilo que realmente é benéfico e não é benéfico, o que é que é um risco aceitável, e o que não é um risco aceitável”, explica.
Em particular, este projeto vai olhar para as comunidades negras, pois estes modelos são desenhos tendo como base o rosto e o corpo de homens brancos, o que pode criar um viés na forma como esta informação é interpretada pelos sistemas de inteligência artificial quando analisam o rosto de uma mulher, ou de alguém de outra etnia.
“Queremos estudar esta tecnologia seja a partir do ponto de vista de grupos sociais que podem ser particularmente afetados, como as comunidades negras. Seja a partir do ponto de vista de cientistas que desenvolvem e concebem estes sistemas, e também das empresas que os vendem”, reforça.
O projeto fAIces – Facial Recognition Technologies. Etho-Assemblages and Alternative Futures é financiado pelo Conselho Europeu de Investigação (ERC, sigla em inglês).
Saiba mais sobre a investigadora em: Linkedin | Researchgate | ISCTE | CIES
Foto: Rita Alves
Banner: Susana Noronha
