A inteligência artificial (IA) percorreu um longo caminho nos últimos anos, graças ao aumento da capacidade de processamento, ao desenvolvimento de algoritmos e à disponibilidade de quantidades de dados massivas.
Uma das aplicações mais populares e úteis da IA é a tradução automática ou MT (Machine Translation), que consiste na conversão de texto ou discurso de um idioma para outro utilizando regras gramaticais, dicionários e modelos estatísticos ou neurais.
A MT pode facilitar a comunicação, a aprendizagem e o acesso à informação entre falantes de línguas e culturas diferentes, mas, sem tradutores humanos envolvidos, confiar apenas na MT pode ser uma péssima decisão.
Uma das muitas limitações da MT é o preconceito de género. 🧔🏻♂️👧🏻♀️
O género é uma construção social e cultural que define os papéis, os comportamentos e as identidades de homens e mulheres na sociedade.
🤹🏻💃🏻👨🏽👦🏽👦🏽👨🏾🏫👷🏼♀️👩🏿👧🏿
É também uma categoria gramatical que atribui um valor masculino ou feminino a um substantivo, pronome, adjectivo ou verbo, consoante o idioma.
O preconceito de género é uma tendência para favorecer ou discriminar um género em detrimento de outro, consciente ou inconscientemente, intencionalmente ou não. Os preconceitos de género podem ocorrer em vários contextos, como na educação, no trabalho, nos meios de comunicação social, na política, etc.
Traduzir algo de género neutro numa determinada língua para uma língua onde terá de ter um género específico pode ser complicado para os humanos, mas é muito mais complicado para um computador.
Os dados podem conter estereótipos, preconceitos ou desigualdades de género que são inadvertidamente reproduzidos ou mesmo amplificados pelos algoritmos.
Um exemplo foi quando o Google Translate foi acusado pelo público de estereotipar com base no género, ao assumir que todos os médicos (neutro em inglês, doctor) são homens e todas as enfermeiras (neutro em inglês, nurse) são mulheres, o que sugere que existe um desequilíbrio de género na indústria da tradução e que as ferramentas de tradução online o estão a reflectir ou a reforçar. 👨🏻⚕️👩🏼⚕️💉
Ferramentas como o Google Translate e o Microsoft Translate, dois dos serviços de tradução automática mais utilizados no mundo, atribuem frequentemente estereótipos de género a certas palavras ou profissões, como médico(a), enfermeiro(a), engenheiro(a), professor(a), e utilizam formas masculinas como padrão para palavras de género neutro no caso de profissões tradicionalmente consideradas mais apropriadas para homens. Estas traduções são inconsistentes e tendenciosas, utilizando frequentemente formas masculinas para palavras que eram femininas ou neutras no idioma original, ou vice-versa.
Isto pode ter consequências negativas para a percepção, valorização e inclusão das mulheres e de outros grupos de género na sociedade em muitas partes do mundo. 🌍
Uma vez que os tradutores automáticos aprendem com dados tendenciosos, que em última análise provêm de seres humanos, acabam por ser preconceituosos ao percepcionar as palavras como masculinas ou femininas. No entanto, não é só este o problema.
A maioria dos algoritmos de aprendizagem automática são construídos para favorecer a tipicidade e a sobregeneralização. Por conseguinte, se a máquina interpretar nurse como ‘enfermeira’ 75% das vezes nos dados de treino (assumindo que não existem pistas contextuais relativas ao género), irá traduzi-lo como tal 100% das vezes.
Isto significa que os sistemas de tradução automática não só imitam os preconceitos preexistentes, como também os intensificam.
O papel da heurística
As heurísticas são atalhos mentais rápidos e fáceis, ou generalizações, que frequentemente desafiam a lógica, para formar juízos e conclusões. Por outras palavras, são atalhos ou regras que ajudam a encontrar soluções aproximadas para questões complexas. Podem ser úteis para tomar decisões rápidas, mas conduzem frequentemente a conclusões incorrectas ou ilógicas.
Os seres humanos utilizam heurísticas, que podem ser úteis em determinadas circunstâncias, mas também podem resultar em preconceitos cognitivos — erros sistemáticos de pensamento que influenciam as nossas opiniões e decisões.
A inteligência artificial (IA) também recorre à heurística quando é difícil ou impraticável encontrar uma resposta exacta, ou quando a rapidez é mais importante do que a precisão. A heurística é utilizada pelos sistemas de IA, por exemplo, para jogar xadrez.
A IA capta preconceitos através da leitura, avaliação e classificação de dados preexistentes, que foram alimentados por humanos.
Representatividade, inclusão e diversidade
O nosso mundo é plural e diverso, e a existência de diferentes culturas, raças, géneros, orientações sexuais e religiões enriquece a sociedade e permite que as pessoas aprendam com as suas diferenças e se tornem mais tolerantes. 👩🏼🚀🚀
A representatividade é a qualidade de representar ou reflectir a diversidade de um grupo ou sociedade, quer em termos de género, raça, cultura, religião, orientação sexual, etc.
A representatividade é um factor essencial para promover o respeito, a tolerância e a solidariedade, bem como para garantir os direitos e a dignidade de todos. Ver pessoas de diferentes géneros, origens étnicas e culturais, etc., em vários contextos sociais, como o trabalho, a política ou os meios de comunicação social, pode ajudar a ultrapassar preconceitos. Pode também motivar as minorias a perseguir os seus objectivos, vendo pessoas que se assemelham a elas ou que têm experiências semelhantes em papéis influentes.
A inclusão é a prática que consiste em garantir que todos têm igual acesso aos direitos, oportunidades e recursos que a sociedade oferece. A inclusão promove a igualdade, a justiça e o respeito pela diversidade humana. Também enriquece a sociedade no seu conjunto, uma vez que permite que as pessoas partilhem as suas competências e potencialidades para o progresso social, económico e cultural.
A diversidade na sociedade é uma fonte de riqueza, aprendizagem e transformação. Incentiva-nos a desafiar os nossos preconceitos, a alargar as nossas perspectivas e a reconhecer o valor de cada indivíduo.
Convida-nos também a celebrar os nossos pontos comuns e as nossas diferenças e a construir uma sociedade mais diversificada e solidária.
A diversidade é um elemento fundamental na construção de uma sociedade mais justa e inclusiva.
Então, como podemos evitar o preconceito de género na tradução automática?
A tradução automática deve ser melhorada de modo a reflectir, reconhecer, respeitar e preservar a diversidade linguística, mas também humana e cultural, que existe no mundo.
Afinal, o objectivo da MT é facilitar o acesso à informação, à educação e a comunicação entre pessoas de línguas e culturas diferentes, promovendo o diálogo, a cooperação e a integração. Foi criada para aproximar as pessoas e não para as afastar. 🧑🏻🤝🧑🏿
Para que a tradução automática cumpra o seu papel, os sistemas de IA devem ser desenvolvidos com critérios de qualidade, ética e responsabilidade social. Os dados utilizados para treinar os sistemas de IA devem ser representativos, equilibrados e isentos de preconceitos.
Os algoritmos utilizados para processar os dados devem ser transparentes, auditáveis e corrigíveis.
Os utilizadores dos serviços de tradução automática devem ser conscientes, críticos e participativos.
Esta é outra limitação que mostra que um profissional humano deve estar sempre envolvido no processo de tradução, utilizando a IA como uma ferramenta para aumentar a produtividade e não como um substituto para os profissionais humanos ou uma desculpa para não ser minucioso.
No entanto, por mais inteligente que seja, uma inteligência artificial nunca conseguirá determinar o género de uma pessoa se o texto não tiver quaisquer indicadores. Quando um tradutor humano se apercebe de que precisa de saber o género de alguém para traduzir, tenta descobri-lo. A IA recorrerá à heurística e à generalização.
Em suma, a inteligência artificial é uma tecnologia poderosa e promissora que pode trazer benefícios e oportunidades para a tradução, mas também apresenta riscos e desafios, que exigem atenção, cuidado e acção humana. A IA não é neutra, infalível nem imparcial. É um reflexo e um produto da sociedade humana, que é complexa, dinâmica e diversificada, mas também tem muitos problemas, como a discriminação, o preconceito, o racismo, o sexismo, etc.
A sociedade humana precisa de aproveitar o potencial, a beleza e a riqueza da inteligência artificial, mas dando prioridade à diversidade, à criatividade e à humanidade. Temos de assumir a responsabilidade e o compromisso de desenvolver, utilizar, avaliar e controlar correctamente a inteligência artificial de uma forma ética, justa e inclusiva, sem perder de vista os valores, princípios e direitos humanos.
Não deixe de voltar ao nosso blogue para ler mais sobre este e outros assuntos, siga-nos nas redes sociais e/ou subscreva a nossa newsletter aqui.
0 Comments