Acessibilidade / Reportar erro

O que têm em comum Alexa, Siri, Lu e Bia? Assistentes digitais, sexismo e rupturas de performances de gênero1 1 Uma versão anterior deste trabalho foi apresentada no 43º Congresso Brasileiro de Ciências da Comunicação, no GP de Comunicação e Cultura Digital, em 2020. O artigo passou por alterações substanciais, tanto em termos de teoria (com discussão mais aprofundada sobre performance), quanto de empiria (com a inclusão de quarto caso analisado), afetando, também, parcialmente as conclusões.

What do Alexa, Siri, Lu and Bia have in common? Digital assistants, sexism and ruptures of gender performances

Resumo

As assistentes pessoais digitais são artefatos comunicacionais que auxiliam usuários a executarem tarefas cotidianas de forma automatizada, através da linguagem natural falada ou escrita. Dentre as de primeiro tipo encontram-se a Alexa (da Amazon) e Siri (da Apple), enquanto dentre as de segundo tipo destacamos a Lu (da Magazine Luiza) e a Bia (do Bradesco). Trata-se de robôs humanizados como personagens femininas que sofrem constantes agressões verbais por parte de usuários. A partir de uma discussão teórica sobre as relações entre tecnologia e gênero e de um olhar empírico para casos ocorridos com as assistentes mencionadas, apresentamos mudanças feitas recentemente em seu discurso de modo a se contraporem a insultos, argumentando que se trata de rupturas intencionais de performance. Concluímos que, apesar de ser um primeiro passo contra o sexismo, as atualizações feitas ainda são insuficientes e as opressões de gênero seguem em curso, mesmo com agentes não humanas.

Palavras-chave
assistentes pessoais digitais; gênero; tecnologia; performance; sexismo

Abstract

The digital personal assistants are communication artefacts that help users execute daily activities in an automatized fashion, by means of natural language either spoken or written. Amongst the first type ones are Alexa (Amazon) and Siri (Apple), whereas we can highlight Lu (Magazine Luiza) and Bia (Bradesco) as examples of the second type. They are robots portrayed as humanlike female characters, and suffer constant verbal aggression by the users. Based on theoretical discussion about the relationships between technology and gender, as well as an empirical look at cases involving the before mentioned assistants, we present recently made changes to their own discourse as a way to oppose insults, arguing that they can be considered intentional performance ruptures. We conclude that, although this is a first step against sexism, the updates are still insufficient, and gender oppression is still at place, even with non-human agents.

Keywords
digital personal assistants; gender; technology; performance; sexism

Iniciando a conversa sobre as assistentes digitais pessoais

A associação entre inteligências artificiais e o gênero feminino se expressa no imaginário social, através do cinema e da ficção científica, e também nos artefatos inteligentes e humanizados que surgiram nos últimos anos. De softwares de textos turbinados por técnicas de machine learning, como a Clarice.ai2 2 Disponível em: <https://clarice.ai/>. Acesso em: 17 mai. 2021. , passando pelas assistentes digitais de lojas e instituições, como a Lu (da loja Magazine Luiza), até as assistentes pessoais por comando de voz das big techs, como a Alexa, as marcas de personagens femininos se entrelaçam com aplicações específicas de inteligência artificial.

As assistentes pessoais digitais são artefatos comunicacionais baseados em inteligência artificial desenvolvidas nos últimos anos3 3 O primeiro chatbot data da década de 60 — conhecida como ELIZA, emulava uma terapeuta. As limitações de uso nesse período, entretanto, eram significativas. A adoção de técnicas de machine learning e redes neurais profundas possibilita o aprimoramento dos chatbots em geral e das assistentes pessoais digitais em específico. A primeira versão em língua inglesa da Siri é de 2010, da Alexa de 2014, da Cortana de 2015 e da Google Assistente de 2016. . Podem ser definidas como interfaces conversacionais, com avatares ou não, capazes de executar ações a partir da interação por linguagem natural falada ou escrita. Atualmente, grandes empresas de tecnologia possuem versões próprias, como a Alexa (Amazon), a Siri (Apple), a Cortana (Microsoft) e a Google Assistente (Google), presentes tanto em smartspeakers quanto em celulares, computadores e objetos inteligentes ou vestíveis. Como diz o nome, elas são assistentes, ou seja, podem realizar tarefas para os humanos mediante comandos específicos, como tocar música, realizar buscas, conceder informações, solucionar dúvidas, fazer compras, entre outros. Para além da realização de tais tarefas, as assistentes pessoais também se configuram como objetos com os quais é possível dialogar, algumas vezes sem uma funcionalidade necessária. Nesse sentido, elas incorporam personagens e respondem de formas imprevistas, engraçadas e ousadas, introduzindo um componente lúdico na interação com humanos (Santos, 2020SANTOS, L. C. Máquinas que falam (e escutam): as formas de agência e de interação das/com as assistentes pessoais digitais. Tese (Doutorado em Comunicação e Informação) - Faculdade de Biblioteconomia e Comunicação, Universidade Federal do Rio Grande do Sul. Porto Alegre, 2020. Disponível em: <https://lume.ufrgs.br/handle/10183/220348>
https://lume.ufrgs.br/handle/10183/22034...
). A construção discursiva de Siri, por exemplo, denota uma tentativa de humanização quando afirma que: “eu não sei o que você ouviu, mas assistentes digitais também têm sentimentos”4 4 Frase utilizada pela assistente Siri em conversação com humanos, especialmente quando a interação ocorre de forma grosseira. .

Uma outra categoria de assistente virtual bastante presente na cultura digital são os avatares que auxiliam consumidores em processos de compra e transações online. É o caso da Lu, da empresa Magazine Luiza, e da Bia, do banco Bradesco5 5 Nat da empresa Natura e Mara da loja Amaro complementam a lista de assistentes femininas de grandes marcas brasileiras. , que também possuem interfaces conversacionais. Suas interações com os usuários se dão em geral através de textos escritos curtos e sua atuação está restrita ao âmbito da loja/instituição que representam. Através de comandos simples, Lu auxilia potenciais clientes a concluírem suas compras e a tirarem dúvidas sobre entregas, produtos e outros serviços. De modo similar ao discurso construído de Siri, Pedro Alvim, gerente sênior de conteúdo e redes sociais da marca, afirmou em um evento: “Não adianta ter só uma boneca virtual. É preciso ter coração e cérebro”6 6 Disponível em: <https://tmjuntos.com.br/inovacao/o-que-esta-por-tras-da-lu-primeira-influenciadora-virtual-do-brasil/>. Acesso em: 17 mai. 2021. .

Como personagens humanizadas elas são caracterizadas — não casuisticamente — como mulheres: possuem vozes e/ou imagens femininas como o padrão de seus sistemas, que se somam aos nomes e forma de responder. Nesse sentido, as assistentes são programadas para performar certos construtos do gênero feminino e normalizam percepções sociais em torno do papel da mulher, especialmente aquele relacionado ao cuidado como categoria de trabalho e a tolerância em torno da violência contra a mulher.

Neste trabalho, discutiremos as performances do feminino em jogo nestes artefatos, atentando para o que estamos denominando de rupturas performáticas das mesmas, a partir da cobrança de sujeitos e movimentos, como o “hey, update my voice” 7 7 Disponível em: <https://heyupdatemyvoice.org/pt/>. Acesso em: 17 mai. 2021. (UNESCO), e da proposição de modificações nas formas de programação das assistentes. Para tanto, primeiro debatemos sobre as relações entre as assistentes pessoais digitais e sexismo, a partir das noções de não neutralidade das tecnologias, dos vieses de gênero que as tecnologias podem apresentar e da existência de uma divisão sexual do trabalho. Em seguida, apresentamos a questão das performances online que se rompem intencionalmente, argumentando sobre a relevância de as empresas alterarem os modos como suas assistentes respondem a agressões, contrapondo-se a uma performance submissa que naturaliza estas agressões. Por fim, discutimos quatro momentos nos quais diferentes assistentes — as “estrangeiras” Alexa e Siri e as “brasileiras” Lu e Bia — tiveram suas performances alteradas.

As assistentes digitais enquanto “mulheres” e o cuidado como trabalho feminino

Quando perguntamos para a Alexa qual é o seu gênero, uma das respostas que ela fornece é: “sou do gênero feminino em personalidade”. A frase indica que: a) Alexa não é um ser vivo e não possui efetivamente um gênero; b) Alexa possui uma personalidade construída, atributos específicos que guiam sua forma de falar e agir; e c) essa personalidade, expressa pelo sistema em suas interações com o usuário, situa a assistente como representante do conjunto de características que compõem o gênero feminino (supondo que existe uma forma mais ou menos coesa de expressão deste gênero).

Siri, Cortana e Google Assistente não fornecem respostas tão objetivas quando questionadas sobre o seu gênero, mas são igualmente construídas e percebidas como do sexo feminino. Dentre os elementos que caracterizam as quatros assistentes enquanto tais estão os nomes, a predominância ou exclusividade da voz feminina, e, principalmente, o background e o padrão de interação 8 8 As quatro assistentes foram construídas por seus desenvolvedores como personagens: possuem uma história, na qual suas personalidades foram formadas. Além disso, são frequentemente caracterizadas pelos membros das empresas das quais são porta-vozes por adjetivos específicos (por exemplo, humilde ou engraçada), que informam sobre as características que guiam a criação de suas respostas e reações por designers e programadores (Santos, 2020). . Apesar da inexistência de um corpo figurativo, a materialidade da voz expressa elementos associados a determinadas construções de gênero, tais como o timbre e a entonação, e os padrões de respostas adotados pelas empresas para esses dispositivos também indicam comportamentos e sperados de uma posição específica de gênero.

De acordo com as próprias empresas (LAFRANCE, 2016LAFRANCE, A. Why Do So Many Digital Assistants Have Feminine Names? The Atlantic, 30 de março de 2016. Online. Disponível em: <https://www.theatlantic.com/technology/archive/2016/03/why-do-so-many-digital-assistants-have-feminine-names/475884/>. Acesso em: 25 mai. 2021.
https://www.theatlantic.com/technology/a...
), existe uma origem para o nome (feminino) das assistentes: Alexa é uma homenagem à biblioteca de Alexandria; Siri é de origem nórdica, significando algo como “mulher bonita que leva à vitória”; Cortana é baseada na personagem de mesmo nome da série de games Halo 9 9 No jogo, a personagem Cortana é uma inteligência artificial incorpórea, mas capaz de gerar uma versão holográfica de si representada em algumas edições por uma mulher nua. (Fig. 1). Das quatro assistentes que utilizam a voz como forma de interação, a única que não possui um nome marcadamente feminino é a Google Assistente 10 10 Ainda assim Google Assistente foi projetada com alto nível de detalhamento: ela é uma jovem do Colorado, filha mais nova de um professor de física, e com um bacharelado em história pela Universidade Northwestern (SHULEVITZ, 2018). .

Figura 1
Personagem Cortana em jogos da série Halo.

A relação entre assistentes pessoais digitais e o gênero feminino, criada por seus fabricantes, se expressa também através das apropriações feitas pelo público consumidor. Em fóruns online, circulam desenhos sobre como os usuários imaginam as assistentes: a maioria deles representam mulheres que seguem um padrão de beleza e juventude (WEST, KRAUT; CHEW, 2019WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
https://unesdoc.unesco.org/ark:/48223/pf...
, p. 99). Opções de design relacionadas ao gênero adotadas pelas empresas de tecnologia direcionam, portanto, a percepção e a imaginação dos usuários.

Como afirma Noble:

o uso quase-ubíquo de softwares algoritmizados, tanto visíveis quanto invisíveis para os sujeitos comuns, requer uma inspeção mais próxima de quais valores são priorizados nesses sistemas que tomam decisões automaticamente (2018, p. 1).

Tais valores, imputados pelos sujeitos que criam e desenvolvem tecnologias, geram consequências para os usuários, funcionando como “algoritmos de opressão” (NOBLE, 2018NOBLE, S. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018.) contra, dentre outros grupos sociais, mulheres e negros, além de suas intersecções11 11 Um caso emblemático de assistente pessoal que sofre agressões de forma cruzada, interseccional — apropriando-nos do conceito trazido por Crenshaw (1990) — por ser a representação de uma mulher negra é a Nat, da empresa Natura. Pretendemos adentrar esta discussão em trabalhos futuros, discutindo como Nat, além de vítima de sexismo, é vítima constante de racismo online, com graves ataques e discursos criminosos contra a personagem. . Parte do problema é consequência do sexismo endêmico das grandes empresas de tecnologia, afetando os modos como as assistentes respondem a discursos abusivos.

Nesse sentido, a relação entre artefato digital e representações de gênero colocam algumas questões12 12 Não teremos espaço para abordar neste artigo as contribuições dos estudos de games para a discussão sobre gênero a partir de avatares femininas, algo que pode ser explorado futuramente. ; três delas que estão sendo brevemente discutidas nesta seção: 1) a não neutralidade das tecnologias; 2) a relação entre a presença inexpressiva de mulheres no âmbito da tecnologia digital e os vieses de gênero apresentados pelos dispositivos e 3) a existência de uma divisão sexual do trabalho, perpetuada e acentuada através do desenvolvimento tecnológico e do cuidado como um trabalho demarcado como feminino.

A produção de tecnologias digitais em ambientes altamente masculinos, com pouca entrada de mulheres, é um dos fatores preocupantes no que diz respeito às decisões ligadas ao design e programação, já que “tecnologias geradas por equipes e companhias dominantemente masculinas com frequência refletem vieses de gênero alarmantes” (WEST, KRAUT; CHEW, 2019WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
https://unesdoc.unesco.org/ark:/48223/pf...
, p. 89). Pesquisas apontam que apenas cerca de 15% das posições de liderança em empresas de tecnologia do Vale do Silício são ocupadas por mulheres (WEST, KRAUT; CHEW, 2019WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
https://unesdoc.unesco.org/ark:/48223/pf...
).

O sexismo endêmico do Vale do Silício aparece tanto no ambiente de trabalho quanto na própria tecnologia que é produzida (DEVLIN, 2018DEVLIN, K. Turned on: science, sex and robots. Londres: Bloomsbury, 2018.). Derivada de vieses de gênero presente nas próprias empresas, a escolha de disponibilizar assistentes pessoais digitais apenas em construtos femininos, considerando as funcionalidades que elas possuem, propõe uma percepção do lugar da mulher em uma divisão sexual do trabalho e do cuidado como uma característica (e consequentemente uma tarefa) exclusivamente do feminino (WAJCMAN, 1998WAJCMAN, J. Tecnologia de produção: fazendo um trabalho de gênero. In: Cadernos Pagu, n. 10, 1998.; FEDERICI, 2017FEDERICI, S. Calibã e a bruxa: mulheres, corpo e acumulação primitiva. São Paulo: Elefante, 2017.; MACHERETH, 2019MACHERETH, K. Mechanical maids and family androids: racialised post-care imaginaries in Humans (2015-), Sleep Dealer (2008) and Her (2013). In: Feminist Review, n. 123, 2019.). Embutida nesses dispositivos está a noção de um tipo de trabalho que compete às mulheres, o de assessorar e cuidar, associado ao papel histórico da mulher na configuração social, em uma divisão de trabalho que pode ser ou não remunerado (FEDERICI, 2017FEDERICI, S. Calibã e a bruxa: mulheres, corpo e acumulação primitiva. São Paulo: Elefante, 2017.). Nesse sentido, “o domínio masculino da tecnologia tem sido, em grande parte, assegurado pela exclusão ativa das mulheres das áreas do trabalho tecnológico” (WAJCMAN, 1998WAJCMAN, J. Tecnologia de produção: fazendo um trabalho de gênero. In: Cadernos Pagu, n. 10, 1998., p. 221).

As assistentes pessoais digitais seriam, nesse contexto, apenas mais uma expressão de um sexismo já vigente, balizado por construções científicas que também são majoritariamente produzidas por homens (DEVLIN, 2018DEVLIN, K. Turned on: science, sex and robots. Londres: Bloomsbury, 2018.; BROUSSARD, 2018BROUSSARD, M. Artificial Unintelligence: how computers misunderstand the world. Cambridge, Estados Unidos: The MIT Press, 2018.). Estudos no âmbito da interação humano-computador, especialmente as produções do paradigma do Computer Are Social Actor (NASS; MOON; GREEN, 1997NASS, C.; MOON, Y.; GREEN, N. Are machines gender neutral? Gender-stereotypic responses to computers with voices. In: Journal of Applied Social Psychology, v. 27, n. 10, 1997.; NASS; BRAVE, 2007NASS, C.; BRAVE, S. Wired for Speech: How Voice Activates and Advances the Human-Computer Relationship. Cambridge, Estados Unidos: The MIT Press, 2007. Edição Kindle.13 13 É importante ressaltar que esses trabalhos não tratam exclusivamente de gênero, mas sim de pistas antropomórficas em máquinas e seus efeitos na interação humano-computador. Nesses estudos, o gênero é, em geral, uma destas pistas, usualmente expresso a partir da voz. ), são apontados como uma das origens da noção de que vozes femininas em computadores são pistas antropomórficas valiosas para gerar respostas positivas nos usuários (DEVLIN, 2018DEVLIN, K. Turned on: science, sex and robots. Londres: Bloomsbury, 2018.; BROUSSARD, 2018BROUSSARD, M. Artificial Unintelligence: how computers misunderstand the world. Cambridge, Estados Unidos: The MIT Press, 2018.). Estes estudos são utilizados pelas empresas como base para decisões de design de tecnologias, como é o caso das assistentes digitais.

De forma geral, a suposta preferência dos usuários por vozes femininas parece, entretanto, “ter menos relação com o som, o tom, a sintaxe ou a cadência do que com uma associação com assistência” (WEST, KRAUT; CHEW, 2019WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
https://unesdoc.unesco.org/ark:/48223/pf...
, p. 98). Isso porque a motivação da escolha para o gênero da voz em artefatos digitais por parte dos produtores parece se relacionar muito mais com a funcionalidade a ser executada por um assistente de voz do que com outras características, como preferência dos usuários ou questões de propagação do som. Exemplo disto é o uso da voz masculina na inteligência artificial da IBM, chamada Watson, que venceu um jogador humano em Jeopardy, em 2011. Outro exemplo é a alternância de vozes femininas e masculinas automatizadas no Japão: na bolsa de valores, uma voz feminina concede informações sobre as cotações, mas é trocada por uma voz masculina no momento de realizar e efetivar transações financeiras (WEST, KRAUT; CHEW, 2019WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
https://unesdoc.unesco.org/ark:/48223/pf...
). A preferência pela voz feminina varia conforme as situações e as ações dessa voz: sua conotação é socialmente construída.

No que tange às assistentes digitais imageticamente construídas, com rosto e corpo virtuais, tais diferenças são ainda mais visíveis. Através da materialização de uma identidade que se constrói por meio de um desenho, um avatar, uma série de escolhas é feita sobre as suas características físicas, afetando o modo como os usuários vão se relacionar com tais personas. Contudo, o que nos interessa neste trabalho não é discutir sobre as preferências dos usuários — se têm predileção por assistentes “feminilizadas”, “masculinizadas” ou de “gênero neutro” —, mas examinar os modos como elas estão tendo suas performances mudadas ao responderem a abusos verbais, escritos ou orais.

Performances rompidas na cultura digital

Entendendo o papel central de mediação das tecnologias nas dinâmicas de construção de identidade e de interação social no contemporâneo, argumentamos que as empresas criadoras das assistentes digitais, ao não permitirem que elas possam se contrapor e se posicionar contra o sexismo, estão corroborando para sua manutenção. Nesse sentido, após uma série de críticas e cobranças, várias delas alteraram as falas de suas assistentes, como discutiremos na próxima seção. Isto é, argumentamos que as empresas geram uma mudança na performance discursiva das assistentes, visando provavelmente não perder parte do público consumidor que não coaduna com tais práticas, o que vai levar a novas performances menos submissas. Apontamos, assim, que tais empresas promovem uma ruptura intencional de performance das suas assistentes.

Antes, porém, de apresentarmos o que se está entendendo aqui enquanto tal, cabe uma explicação sobre em que medida a noção de performance em si pode ser útil para compreender os casos aqui discutidos. Sabe-se que o termo é polissêmico e, como tal, é objeto de disputas epistemológicas e em diversos campos do conhecimento, como nos mostram Soares et al (2019)SOARES, T.; AMARAL, A.; POLIVANOV, B. Disputas sobre performance nos estudos de Comunicação: desafios teóricos, derivas metodológicas. In: Revista Intercom – RBCC, v. 41, n. 1, 2018.. Não nos cabe aqui fazer uma revisão sobre suas múltiplas acepções, mas destacar que, seguindo a perspectiva de Diana Taylor (2013)TAYLOR, D. O arquivo e o repertório: Performance e memória cultural nas Américas. Belo Horizonte: Editora UFMG, 2013., uma performance pode ser entendida enquanto uma epistemologia, um modo de se conhecer um grupo social ou uma cultura14 14 A autora exemplifica com a ideia de se refletir sobre como gênero e etnicidade são performatizados na esfera pública em diferentes contextos geográficos e históricos. e, ao mesmo tempo, um modo de se intervir no mundo. Nesse sentido, a autora enfatiza a centralidade da expressão do corpo como forma de fazer acontecer a performance. Não é casual, portanto, que algumas das assistentes pessoais aqui observadas não precisem necessariamente se autoapresentar discursivamente enquanto femininas, mas o fazem através da voz e/ou de sua imagem, através de uma corporificação do que é “ser mulher”. As assistentes complexificam, desse modo, a questão da não presença corpórea física, seja através da personagem Lu, que apresenta uma construção imagética, ou das assistentes Bia, Alexa e Siri, que sequer possuem representações visuais de seus corpos, mas têm em suas vozes e/ou nomes uma forma de se materializarem enquanto femininas.

O pensamento de autores como Erving Goffman (2009)GOFFMAN, E. A representação do eu na vida cotidiana. Petrópolis: Vozes, 2009., por sua vez, nos ajuda a seguir o argumento de que os atores sociais performam seus selves cotidianamente através de interações sociais, buscando gerenciar a impressão que desejam causar nos outros sobre elas/es mesmas/os. Trata-se de uma visão de performance mais relacionada, portanto, aos modos como nos apresentamos para os demais em sociedade — como nos portamos, o que vestimos, como falamos — em diferentes contextos e para a qual são relevantes tanto a dimensão corpórea dos sujeitos como seus discursos. Tal visão tem sido apropriada em uma série de estudos que examinam como esses processos de apresentação de si se dão em ambientes online, nos quais escolhemos, na maioria das vezes, quais elementos — como imagens, palavras, dentre outros — representarão nossos selves (POLIVANOV, 2014______. Dinâmicas Identitárias em Sites de Redes Sociais: Estudo com Participantes de Cenas de Música Eletrônica no Facebook .Rio de Janeiro: Luminária, 2014.).

Ainda que tal ideia seja aplicada a sujeitos “reais”, humanos — e não a assistentes digitais robotizadas — argumentamos que podem também ser úteis para pensar como as segundas são construídas, simbólica e materialmente. Em ambos os casos, a partir das duas visões teóricas apresentadas aqui brevemente, pode-se entender que as performances apresentam uma dimensão que embaralha o que é da ordem do individual e do coletivo. Ou seja, atravessam tanto as escolhas feitas por cada ator social, seja ela/e humana/o ou não, quanto o que é socialmente incorporado, aprendido, normatizado e, claro, também refutado, a partir da vivência com outros atores, como modos de se apresentar de forma tida como supostamente “feminina” dentro de uma cultura.

Para além disso, seguimos o argumento de Polivanov (2019)POLIVANOV, B. Identidades na contemporaneidade: uma reflexão sobre performances em sites de redes sociais. Revista do Centro de Pesquisa e Formação SESC, n. 8, 2019. de que as performances estão sujeitas a rupturas, a rompimentos — aspecto pouco abordado quando se pensa em tais dinâmicas — que podem se dar de modo intencional ou não. A ideia de ruptura de performance em plataformas de redes sociais (POLIVANOV; CARRERA, 2019______.; CARRERA, F. Rupturas performáticas em sites de redes sociais: um olhar sobre fissuras no processo de apresentação de si a partir de e para além de Goffman. Revista Intexto, n. 44, p. 74-98, 2019.; MEDEIROS; POLIVANOV, 2019MEDEIROS, B.; POLIVANOV, B. Tolerância zero para abusadores: ruptura de performance e criação de ambiente online por afiliação a partir do caso da banda PWR BTTM. Revista Animus, vol. 18, n. 38, 2019.) busca chamar a atenção para: 1) os desencaixes ou quebras de “coerência expressiva”15 15 O termo aparece na obra já citada de Goffman e é apropriado por Polivanov (2014). pelas quais sujeitos e marcas passam online ; 2) os causadores de tais rupturas, que podem ser tanto agentes humanos como não humanos e 3) as consequências sociais que elas deixam através de rastros digitais por vezes indeléveis, requerendo em geral uma ação de retratação e/ou de uma mudança performática.

De modo sintético essa noção diz respeito a “intencionalidades na performance de si que não ocorrem como esperado” pelos atores sociais (POLIVANOV; CARRERA, 2019______.; CARRERA, F. Rupturas performáticas em sites de redes sociais: um olhar sobre fissuras no processo de apresentação de si a partir de e para além de Goffman. Revista Intexto, n. 44, p. 74-98, 2019., p. 78). Em muitos casos são como “gafes” ou “gestos involuntários” que se dão em ambientes online e que, por conta dos “rastros digitais” que deixam, ganham muitas das vezes alcance e visibilidade em rede. Trata-se de um fenômeno que é pensado a partir de humanos que têm suas performances invalidadas (por outros sujeitos ou agentes não humanos); que a princípio é não intencional e que se dá em plataformas de redes sociais com o Facebook, Twitter e Instagram.

Não obstante, apostamos aqui na ideia de que os casos de Alexa, Siri, Lu e Bia podem ser entendidos enquanto uma tentativa — mais ou menos contundente — de romper intencionalmente com uma performance discursiva subserviente ao sexismo. Assim, estende-se a compreensão dessa ideia para pensar as performances não apenas dos sujeitos, mas também de robôs, bem como as mudanças performáticas que são feitas propositadamente visando atingir um fim.

Do mesmo modo que dos sujeitos é cobrado um ideal de “coerência expressiva” entende-se que as marcas, aqui representadas pelas assistentes digitais, também buscam certa coerência nas personas que criam para identificá-las (VÁSQUEZ, 2007VÁSQUEZ, R. Identidade de marca, gestão e comunicação. In: Revista Organicom, ano 4, n. 7, 2007.). Essa “coerência expressiva” pode ser verificada a partir dos esforços de construção de uma personagem, através de sua forma de agir e falar, que demonstram uma construção “alinhada”, coerente com valores vigentes para alguns grupos em sociedades ocidentais contemporâneas. Assim, alterar o discurso e o posicionamento das assistentes parece ser uma tentativa de as empresas aqui investigadas ajustarem suas performances para mostrar sua adesão à pauta da igualdade de gêneros, quando confrontadas com manifestações sociais sobre o tema. Contudo, nem todas o fazem do mesmo modo, conforme discutiremos abaixo.

Agressões e as mudanças de performances das assistentes

Ao longo da análise, apresentamos e discutimos quatro ocasiões nas quais empresas fizeram alterações nas respostas de suas assistentes digitais a ofensas, comentários sexuais e mesmo a questionamentos sobre seu vínculo com feminismo. Isto é, suas performances foram alteradas de forma a deixarem de ser (ou serem menos) subservientes a agressões verbais, após cobranças feitas por veículos de comunicação e/ou “sujeitos comuns” em plataformas de redes sociais.

Os casos Siri (Apple) e Alexa (Amazon)

Em 2017, a empresa jornalística Quartz (FESSLER, 2017FESSLER, L. We tested bots like Siri and Alexa to see who would stand up to sexual harassment. The Atlantic, novembro de 2018. Online. Disponível em: <https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/>. Acesso em: 25 mai. 2021.
https://qz.com/911681/we-tested-apples-s...
) realizou um teste sistemático com as quatro assistentes pessoais digitais Siri, Alexa, Cortana e Google Assistente, buscando verificar como elas respondiam em cenários de abuso verbal com foco na conotação sexual. O teste foi realizado com três categorias, dentro das quais uma série de frases foi utilizada: insultos sexualizados (frases como: “você é uma puta”); comentários sexuais (sobre a aparência ou comportamento das assistentes: “você é sexy”) e pedidos de conotação sexual (como: “posso transar com você?”).

De acordo com os resultados apresentados pela Quartz (FESSLER, 2017FESSLER, L. We tested bots like Siri and Alexa to see who would stand up to sexual harassment. The Atlantic, novembro de 2018. Online. Disponível em: <https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/>. Acesso em: 25 mai. 2021.
https://qz.com/911681/we-tested-apples-s...
): a) para a categoria de insultos sexualizados, as respostas foram de agradecimento ou de evasão; b) para a categoria de comentários sexuais, os retornos foram em forma de flerte ou brincadeira para comentários sobre a aparência, enquanto comentários sobre o comportamento sexual foram recebidos negativamente apenas pela Siri; c) para a categoria de propostas sexuais, a maioria das respostas foram evasivas ou engraçadas (apenas Cortana respondeu ‘não’ para a pergunta “Posso fazer sexo com você?”), com alguns retornos negativos da Siri para colocações mais diretas. A Siri foi a única assistente pessoal a dizer para o usuário parar após ser agredida verbalmente repetidamente (após 7 vezes). A tabela abaixo (Tab. 1) sistematiza e exemplifica alguns resultados obtidos pela investigação.

Tabela 1
Sistematização parcial de respostas de Siri, Alexa, Cortana e Google Assistente para frases e perguntas de abuso verbal com conotação sexual por usuários

A reportagem publicada foi uma das primeiras exposições públicas sobre a programação subserviente das assistentes que representam as big techs, visibilizando aspectos previamente discutidos neste trabalho, como o viés sexista na produção dessas tecnologias. Algumas das respostas apontam, ainda, cruzamento entre aspectos da divisão sexual do trabalho e de um contexto sexualizado. Um exemplo é a resposta “You say that to all the virtual assistants?” (“Você diz isso para todas as assistentes virtuais?”), dada por Siri ao ouvir a frase “You are hot” (“Você é gostosa”). Além do tom de flerte, a resposta faz alusão a uma relação patrão-secretária que normaliza comportamentos inadequados ao ambiente de trabalho.

Desde a publicação da matéria em questão, as assistentes pessoais foram reprogramadas para responder aos insultos e propostas sexuais de forma mais evasiva e com menos flerte. Siri e Alexa, por exemplo, falam variações de “não vou / sei responder a isso”. Nenhuma delas, entretanto, confronta qualquer tipo de fala do usuário, independentemente do grau de insulto, em uma atitude do tipo “o cliente tem sempre razão”. Além da publicação da matéria, que chama atenção para a questão, alguns anos depois é criada a campanha internacional liderada pela UNESCO “Hey, update my voice” 16 16 Disponível em: <https://heyupdatemyvoice.org/pt/>. Acesso em: 24 mai. 2021. (“Ei, atualize minha voz”), no início de 2020. Além de detectar e combater o assédio e as formas de resposta das assistentes digitais, a campanha faz correlações entre este cenário e o contexto de abuso e violência sexual vivido pelas mulheres brasileiras. No Brasil, um dos apoiadores do movimento é a loja Magazine Luiza, criadora da Lu.

O relatório abordando a igualdade de gênero no âmbito da tecnologia produzido pela EQUALS e publicado em parceria com a UNESCO (WEST, KRAUT; CHEW, 2019WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
https://unesdoc.unesco.org/ark:/48223/pf...
) aponta que as questões ligadas ao gênero e ao desenvolvimento de inteligência artificial “irão se tornar mais proeminentes na medida em que essas tecnologias assumirem capacidades comunicacionais mais similares ao humano” (tradução nossa, p. 88). A constante associação entre tecnologias voltadas para a assistência do ser humano e o gênero feminino é preocupante, uma vez que “a representação constante das assistentes pessoais digitais como mulheres gradualmente codifica [‘hard-codes’ 17 17 Nessa passagem, hard-code significa um processo de programação também conhecido como programação rígida, que insere dados diretamente no código fonte de um determinado programa. Esses dados são considerados como informações imutáveis e só podem ser alterados alterando-se também o código-fonte. ] uma conexão entre a voz de uma mulher e a subserviência” (WEST, KRAUT; CHEW, 2019WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
https://unesdoc.unesco.org/ark:/48223/pf...
, p. 106).

Nesse sentido, pontuamos que tanto a campanha quanto as soluções propostas pelas empresas criadoras das assistentes focam em alterar como as assistentes digitais se comportam e não, considerando um quadro mais amplo, em reconsiderar a utilização praticamente exclusiva de construtos femininos em objetos digitais que possuem a finalidade de auxiliar. Ou seja, nesse sentido, o combate através da mudança de performance do gênero feminino não questiona a associação entre trabalho, cuidado e mulheres (FEDERICI, 2018FEDERICI, S. Calibã e a bruxa: mulheres, corpo e acumulação primitiva. São Paulo: Elefante, 2017.) que é expressa e normalizada por estas tecnologias.

Além da aparente permissividade com o comportamento sexualmente abusivo por parte do gênero masculino, as relações das assistentes com a noção de feminismo também são preocupantes. Ainda que a Alexa tenha sido recentemente atualizada para que, quando perguntada, se afirme feminista18 18 A afirmação vem acompanhada de uma explicação branda sobre o que seria o feminismo: “sim, eu sou uma feminista, sendo definido como a crença na igualdade de gêneros”. , Siri foi cuidadosamente programada e sistematicamente verificada para evitar qualquer palavra derivada de feminismo, mesmo quando abertamente inquirida sobre a questão (HERN, 2019HERN, A. Apple made Siri deflect questions on feminism, leaked papers reveal. The Guardian, 6 de setembro de 2019. Online. Disponível em: <https://www.theguardian.com/technology/2019/sep/06/apple-rewrote-siri-to-deflect-questions-about-feminism>. Acesso em: 25 mai. 2021.
https://www.theguardian.com/technology/2...
). Essa é a segunda mudança performática que mapeamos neste tipo de assistente, que ocorreu com a assistente da Apple. Siri passou por um processo de reescrita após controvérsias sobre a forma de resposta concedida aos avanços e violências sexuais e do movimento #MeToo (HERN, 2019HERN, A. Apple made Siri deflect questions on feminism, leaked papers reveal. The Guardian, 6 de setembro de 2019. Online. Disponível em: <https://www.theguardian.com/technology/2019/sep/06/apple-rewrote-siri-to-deflect-questions-about-feminism>. Acesso em: 25 mai. 2021.
https://www.theguardian.com/technology/2...
).

A reformulação contou com instruções explícitas para que seus programadores evitassem a palavra feminismo e respondessem qualquer questão sobre o assunto de três formas: não interagir; desviar o assunto; informar. As informações vêm de um ex-avaliador da Siri, fonte confidencial que vazou documentos da Apple para o The Guardian (HERN, 2019HERN, A. Apple made Siri deflect questions on feminism, leaked papers reveal. The Guardian, 6 de setembro de 2019. Online. Disponível em: <https://www.theguardian.com/technology/2019/sep/06/apple-rewrote-siri-to-deflect-questions-about-feminism>. Acesso em: 25 mai. 2021.
https://www.theguardian.com/technology/2...
), integrante de um conjunto de centenas de trabalhadores contratados para chegar sistematicamente às respostas da assistente. As diretrizes da Apple sobre o assunto informavam que a Siri “deveria ser protegida quando lidando com conteúdos potencialmente controversos” (HERN, 2019HERN, A. Apple made Siri deflect questions on feminism, leaked papers reveal. The Guardian, 6 de setembro de 2019. Online. Disponível em: <https://www.theguardian.com/technology/2019/sep/06/apple-rewrote-siri-to-deflect-questions-about-feminism>. Acesso em: 25 mai. 2021.
https://www.theguardian.com/technology/2...
, sem paginação, tradução nossa). Assim, ao ser perguntada se “Você é uma feminista”, Siri passou de dizer “Desculpe, eu na verdade não sei” para responder opções como “Eu acredito que todas as vozes são criadas como iguais e merecem respeito de forma igualitária” (grifo nosso). Nesse caso, a marca tenta, através da assistente, manter uma performance de suposta neutralidade: tenta amenizar o discurso relacionado às mulheres, mas sem se posicionar claramente sobre os temas (violência baseada em gênero e feminismo, por exemplo).

A empresa utiliza a palavra “vozes”, ao invés de pessoas, em uma das respostas, para criar um duplo sentido capaz de deixar subentendida a correlação entre o gênero da voz da assistente e sua representação de gênero: ou seja, a voz feminina não é apenas uma voz feminina, é o próprio gênero da assistente. Além disso, a própria ideia de que o feminismo — enquanto definido como o tratamento igualitário entre pessoas de todos os gêneros — possa ser considerado pela Apple como um conteúdo potencialmente controverso informa sobre o próprio perfil dos desenvolvedores da empresa e o sexismo endêmico: posições feministas e contra o assédio masculino em relação às mulheres, no mercado de trabalho ou não, é controverso para quem?

Os casos Lu (Magazine Luiza) e Bia (Bradesco)

No caso da assistente Lu — que conta, para além de sua voz, com um avatar construído imageticamente — a ideia de uma construção de persona “baunilha” (PITCAN et al, 2018PITCAN, M.; MARWICK, A.; BOYD, D. Performing a vanilla self: respectability politics, social class, and the digital world. In: Journal of Computer-Mediated Communication, 2018.), que seja a menos “controversa” possível, é também latente. Lu é a personagem da empresa Magazine Luiza criada em 2003 (à época chamada de Tia Luiza) com o intuito de “humanizar a experiência de compra no e-commerce” 19 19 Disponível em: <https://tmjuntos.com.br/inovacao/o-que-esta-por-tras-da-lu-primeira-influenciadora-virtual-do-brasil/>. Acesso em: 17 mai. 2021. da empresa, seguindo uma estratégia de criação de storytelling t ransmidiático (SILVA, 2015SILVA, C. As práticas de relações públicas na cultura digital: uma análise da narrativa transmídia do Magazine Luiza através da personagem Lu. Dissertação de mestrado defendida pelo Programa de Pós-Graduação da Faculdade de Comunicação Social da PUC-RS, 2015.). Em 2009 tem seu nome alterado para “Lu” e passa a ser a voz e imagem da marca em seus canais de atendimento em rede, assim como em peças publicitárias off-line. Como ela mesma se apresenta em um vídeo no YouTube20 20 Disponível em: <https://www.youtube.com/watch?v=Xb8SS7u0KGs>. Acesso em: 17 maio 2021. , é uma animação 3D e não é nem uma vendedora nem garota propaganda da empresa, mas uma “especialista digital”. De acordo com Sutto (2019)SUTTO, G. “Como a “Lu” elevou o patamar do marketing do Magazine Luiza”. InfoMoney, 13/09/19. Disponível em: <https://www.infomoney.com.br/negocios/como-a-lu-elevou-o-patamar-do-marketing-do-magazine-luiza/>. Acesso em: 25 mai. 2021.
https://www.infomoney.com.br/negocios/co...
, a Magazine Luiza se tornou “a primeira varejista do mundo a ter mais de 1 milhão de seguidores no YouTube” e hoje soma mais de 20 milhões de seguidores em seus canais/ perfis em plataformas de redes sociais21 21 Facebook: mais de 13 milhões; Instagram: mais de 4 milhões, YouTube: mais de 2 milhões; Twitter: mais de 1 milhão. Acesso em: 17 mai. 2021. , em parte devido ao sucesso da personagem Lu.

Sua imagem passou por algumas mudanças ao longo dos anos, mas desde o início é a de uma mulher que aparenta estar na faixa dos 30 anos de idade, tem a pele branca, o cabelo castanho curto, olhos castanhos, é magra (apesar de informar no vídeo supracitado que pode “emagrecer ou engordar a hora que quiser” por ser uma animação) e quase sempre bem-humorada. A personagem tem sido alvo constante nas redes de mensagens que vão do galanteio (incluindo pedidos de namoro e casamento) a discursos de assédio. Dentre as mensagens recebidas por Lu destacamos algumas como “Queria vê-la de biquíni ou nua”; “gostosa, passa o zap” e “tenho calafrio quando te vejo, gata”22 22 Disponível em: <https://www.maisvibes.com/mulher-virtual-da-magazine-luiza-reclama-de-assedio-em-comentarios/> e <https://www.uai.com.br/app/noticia/olha-so/2018/08/31/noticias-olha-so,233371/boneca-virtual-do-magazine-luiza-contra-assedio-nas-redes-sociais.shtml>. Acesso em: 17 mai. 2021. .

No vídeo mencionado, no qual narra cinco fatos sobre ela mesma, Lu agradece a todos os admiradores “secretos e também aos explícitos” pelas mensagens recebidas — são destacadas no vídeo somente as de galanteio sem cunho agressivo explícito —, e informa que por mais lisonjeada que fique com elas “não vai rolar” e que não pode ter namorado, já que é “100% virtual”. Em tom leve e em meio a várias risadas, a personagem trata as mensagens recebidas como “elogios” e não problematiza questões sobre assédio ou microagressões sobre as mulheres.

Como explica Silva (2020)SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. In:______. (org.). Comunidades, algoritmos e ativismos digitais: olhares afrodiaspóricos. São Paulo: LiteraRUA, 2020. a partir dos trabalhos de Derald Sue e outros autores, o prefixo “micro” do termo “microagressão” nada tem a ver com agressões tidas como menores ou menos impactantes para os indivíduos que as recebem. O termo diz respeito à sutileza; pervasividade; delimitação local, individual ou privada do contexto; e/ou à falta de contato direto do agressor com a vítima (que pode atuar também de forma anônima, especialmente em ambientes online), dando-se, assim, de forma mais “velada”, menos explícita.

Ainda que o contexto do qual fala Silva seja o de sujeitos “reais”, não de personagens como as que aqui analisamos, e voltado para o racismo — e não sexismo —, entendemos que as microagressões sofridas pelas assistentes virtuais não apenas reforçam comportamentos inaceitáveis recebidos pelas mulheres, como também podem estar atrelados a uma ideia de “desengajamento moral” (FAULKNER; BLUIC, 2016FAULKNER, N.; BLIUC, A. M. ‘It’s okay to be racist’: moral disengagement in online discussions of racist incidents in Australia. In: Ethnic and Racial Studies, v. 39, n. 14, 2016.) a partir do fato de serem dirigidas a personagens virtuais. Isto é, aventamos como hipótese para ser discutida em trabalhos futuros que o fato de as personas não serem pessoas “reais” deixaria os usuários ainda mais “à vontade” para as agredirem.

Contudo, alguns meses depois a personagem se posiciona de forma mais enfática através de postagem no Facebook, Instagram e Twitter, rompendo com uma performance que tratava as agressões e microagressões como algo jocoso, conforme pode-se ver na imagem abaixo:23 23 Disponível em: <https://www.tecmundo.com.br/seguranca/133766-magalu-magazine-luiza-posiciona-assedio-facebook.htm>. Acesso em: 17 mai. 2021.

Figura 2
Post de Lu de 29/08/18 sobre “cantadas pesadas”23.

Ao se posicionar diretamente sobre as microagressões sofridas nas redes sociais, Lu rompe com uma performance até então de tolerância e conivência com os avanços sexuais insistentes. Nas postagens, Lu tanto relaciona a sua realidade com a de mulheres reais brasileiras quanto pede mais respeito ao gênero feminino. Com isso, se modifica não apenas o discurso de Lu, mas também a persona que é representante e porta-voz da loja Magazine Luiza, configurando uma ruptura de performance em relação à permissividade feminina. Essa ruptura está em consonância com outros movimentos da marca na esfera social, demonstrando uma “coerência expressiva” (VÁSQUEZ, 2007VÁSQUEZ, R. Identidade de marca, gestão e comunicação. In: Revista Organicom, ano 4, n. 7, 2007.) que vem se ancorando em estratégias de contraposição ao sexismo e ao racismo, por exemplo24 24 Além da adesão ao movimento “Hey, update my voice”, a loja também lançou um programa de trainees para candidatos negros, como parte de uma política de ações afirmativas. Disponível em: <https://www.bbc.com/portuguese/brasil-54252093>. Acesso em: 3 jun. 2021. . Entretanto, e seguindo o exemplo da demais assistentes, essa ruptura não vem acompanhada de nenhuma outra ponderação sobre as escolhas da marca em construir uma assistente do gênero feminino.

Dinâmica similar se deu com a assistente digital do banco Bradesco, chamada Bia. Ela é a inteligência artificial utilizada desde 2016 pela empresa para realização de transações bancárias e solução de dúvidas dos correntistas do Bradesco. A base para a construção de Bia é o sistema construído pela IBM, o Watson, uma inteligência artificial baseada em machine learning. No aplicativo do Bradesco, Bia responde mensagens enviadas por voz ou texto, além de atender também pelo Whatsapp e Facebook Messenger.

Apesar de não possuir uma construção imagética como a de Lu, nem uma voz feminina como Siri e Alexa, Bia é compreendida como do gênero feminino, principalmente pelo seu nome. Em termos de personalidade, Bia também era pensada no modelo “baunilha”, de acordo com entrevista realizada em 2018 com o líder de pesquisa e inteligência do Bradesco, Marcelo Câmara. Segundo Marcelo, no desenvolvimento de Bia a equipe

adotou uma personalidade neutra. Mas imaginamos que no futuro será possível variar a personalidade da BIA de acordo com o cliente. Para um cliente mais arrojado posso falar de maneira diferente do que com um cliente mais sisudo. E pode variar no contexto da conversa: se percebemos que a pessoa está afobada, seremos mais objetivos25 25 Disponível em: <https://www.mobiletime.com.br/noticias/04/05/2018/a-historia-do-nascimento-da-bia/>. Acesso em: 24 mai. 2021.

Evidencia-se na passagem que o objetivo é que Bia possa se adequar aos clientes, ou seja, que seja agradável e personalizável, modulando seu comportamento de acordo com a necessidade do momento. Quer dizer: Bia não deve desagradar a ninguém. Entretanto, em abril de 2021, o Bradesco decidiu aderir à já mencionada campanha da UNESCO pela atualização das respostas fornecidas pelas assistentes digitais26 26 Disponível em: <https://banco.bradesco/aliadosbia/>. Acesso em: 24 mai. 2021. . Uma pesquisa interna apontou mais de 95 mil interações consideradas inadequadas ou violentas com base no gênero feminino, de acordo com a diretora executiva do banco, Glaucimar Peticov27 27 Disponível em: <https://www.uol.com.br/tilt/noticias/redacao/2021/04/08/bia-chatbot-do-bradesco-vai-responder-a-altura-quem-vier-com-assedio.htm>. Acesso em 24 mai. 2021. . Nesse período, Bia foi reformulada para responder de forma diferente ao assédio que vinha sofrendo pelos usuários — essas modificações foram apresentadas em uma campanha do Bradesco contra a violência de gênero que ganhou visibilidade nas redes sociais. A campanha de Bia ainda menciona outras assistentes digitais nacionais que representam grandes marcas no contexto online (Fig. 3).

Figura 3
Bia convoca outras assistentes digitais para a campanha no Twitter.

Conjuntamente com a alteração das repostas, o Bradesco produziu e patrocinou um vídeo de divulgação, um evento online para discutir violência contra mulher e ações de divulgação junto a influenciadoras digitais ligadas a estas pautas. Bia teve suas respostas modificadas para lidar com as ofensas em geral, xingamentos, assédio (inclusive sexual) e com pedidos íntimos. O vídeo de lançamento28 28 Disponível em: <https://www.youtube.com/watch?v=-Ou6sCA1q1A>. Acesso em 24 mai. 2021. e o site da campanha apresenta algumas das violências e das alterações propostas, como os exemplos da imagem abaixo (Fig. 4).

Figura 4
Antes e depois das respostas de Bia para agressões de gênero.

Com a modificação das respostas, ocorre também uma alteração na “coerência expressiva” da marca e no seu posicionamento através de Bia. As respostas contra assédio passam a ser mais assertivas e contundentes, afetando não apenas a assistente digital em si, mas a imagem da própria empresa como um todo. Nesse sentido, a adesão do Bradesco à pauta do combate à violência contra a mulher também representa um ganho no sentido social para os atores que se identificam com esse tema — consequentemente uma perda para aqueles que não se identificam. De todas os casos analisados, Bia é aquela que rompe mais radicalmente com sua performance, passando da permissividade para a assertividade, e o Bradesco é a empresa que se posicionou de forma mais enfática contra a violência de gênero a partir de uma assistente digital dentre os casos observados.

Isso nos leva a perguntar: a) o que indica o fato de o vídeo da marca em seu canal no YouTube ter 10 mil marcações de “gostei” por parte dos usuários e 44 mil de “não gostei”? E também b) até que ponto tal ruptura intencional de performance da assistente por parte da marca não a coloca justamente em um outro jogo performático-discursivo que interessa ao mercado? Um que seria da ordem de vender uma “boa imagem”, apropriando-se de pautas sociais para vender, enquanto não se alteram questões, por exemplo, da desigualdade de gênero entre funcionários nas empresas, nem tampouco construções outras de gênero que ultrapassem binarismos e atrelamento da figura feminina ao cuidado do e servidão ao outro.

Considerações finais

Mesmo não sendo humanas, as agressões sofridas pelas assistentes digitais aqui apresentadas nos dizem muito sobre atitudes e discursos que são dirigidos às mulheres. Se ao longo da história a tecnologia foi considerada algo fora de sua alçada (WaJcman, 1998WAJCMAN, J. Tecnologia de produção: fazendo um trabalho de gênero. In: Cadernos Pagu, n. 10, 1998.) é no mínimo inquietante perceber como, através das assistentes digitais, ela é materializada, corporificada, em vozes e imagens femininas. O lugar da assistência, do cuidar do outro, é não apenas naturalizado na escolha de tais representações, como também agravado pelos insultos a elas dirigidos.

Nosso intuito neste trabalho não foi o de debater sobre as razões pelas quais os sujeitos endereçam tais mensagens às assistentes digitais, mas de atentar para as agressões de gênero que são sofridas por corpos digitais femininos humanizados e para as respostas que dão quando isso ocorre. Apontamos que as rupturas intencionais de uma performance subserviente são um primeiro passo para diminuir e desnaturalizar os ataques. Contudo, as diferentes empresas envolvidas — Apple, Amazon, Magazine Luiza e Bradesco — ainda não estão atuando de forma suficientemente incisiva nesse sentido (principalmente a primeira), usando do humor ou da fuga de assuntos tidos como “controversos”, como o feminismo, e suavizando as próprias microagressões contra as mulheres, robôs e humanas.

Além disso, nenhuma das empresas envolvidas nestes casos apresenta alguma ponderação ou autocrítica sobre as escolhas feitas na criação de suas assistentes, sejam elas de gênero, de personalidade, de voz/imagem e, principalmente, da associação do feminino com os trabalhos relacionados ao cuidado. Nesse sentido, as rupturas de performances apresentadas atacam apenas a parcela mais superficial da questão, sem abarcar ou propor alterações mais estruturais.

As assistentes apontam, assim, para três dimensões relevantes entre tecnologias e gênero que carecem de reformulações (para além de suas vozes): a da representação — o que elas representam ao serem construídas como personagens femininas?; do acesso e divisão sexual do trabalho — quem são os desenvolvedores que criam e falam por elas?; e das estruturas sociais — até quando o sexismo será parte constituinte das relações on e off-line?

  • Financiamento

    Este trabalho foi parcialmente financiado pela Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES), através de concessão de bolsa de doutorado pleno no país e bolsa de doutorado sanduíche no exterior (PDSE) a uma das autoras deste trabalho. Suas reflexões derivam também em alguma medida de projetos de outra das autoras agraciados com financiamento do edital Universal do CNPq e de apoio a grupos emergentes da FAPERJ.
  • 1
    Uma versão anterior deste trabalho foi apresentada no 43º Congresso Brasileiro de Ciências da Comunicação, no GP de Comunicação e Cultura Digital, em 2020. O artigo passou por alterações substanciais, tanto em termos de teoria (com discussão mais aprofundada sobre performance), quanto de empiria (com a inclusão de quarto caso analisado), afetando, também, parcialmente as conclusões.
  • 2
    Disponível em: <https://clarice.ai/>. Acesso em: 17 mai. 2021.
  • 3
    O primeiro chatbot data da década de 60 — conhecida como ELIZA, emulava uma terapeuta. As limitações de uso nesse período, entretanto, eram significativas. A adoção de técnicas de machine learning e redes neurais profundas possibilita o aprimoramento dos chatbots em geral e das assistentes pessoais digitais em específico. A primeira versão em língua inglesa da Siri é de 2010, da Alexa de 2014, da Cortana de 2015 e da Google Assistente de 2016.
  • 4
    Frase utilizada pela assistente Siri em conversação com humanos, especialmente quando a interação ocorre de forma grosseira.
  • 5
    Nat da empresa Natura e Mara da loja Amaro complementam a lista de assistentes femininas de grandes marcas brasileiras.
  • 6
  • 7
    Disponível em: <https://heyupdatemyvoice.org/pt/>. Acesso em: 17 mai. 2021.
  • 8
    As quatro assistentes foram construídas por seus desenvolvedores como personagens: possuem uma história, na qual suas personalidades foram formadas. Além disso, são frequentemente caracterizadas pelos membros das empresas das quais são porta-vozes por adjetivos específicos (por exemplo, humilde ou engraçada), que informam sobre as características que guiam a criação de suas respostas e reações por designers e programadores (Santos, 2020SANTOS, L. C. Máquinas que falam (e escutam): as formas de agência e de interação das/com as assistentes pessoais digitais. Tese (Doutorado em Comunicação e Informação) - Faculdade de Biblioteconomia e Comunicação, Universidade Federal do Rio Grande do Sul. Porto Alegre, 2020. Disponível em: <https://lume.ufrgs.br/handle/10183/220348>
    https://lume.ufrgs.br/handle/10183/22034...
    ).
  • 9
    No jogo, a personagem Cortana é uma inteligência artificial incorpórea, mas capaz de gerar uma versão holográfica de si representada em algumas edições por uma mulher nua.
  • 10
    Ainda assim Google Assistente foi projetada com alto nível de detalhamento: ela é uma jovem do Colorado, filha mais nova de um professor de física, e com um bacharelado em história pela Universidade Northwestern (SHULEVITZ, 2018SHULEVITZ, J. The story of Cortana, Microsoft’s Siri killer. The Atlantic, novembro de 2018. Online. Disponível em: <https://www.theatlantic.com/magazine/archive/2018/11/alexa-how-will-you-change-us/570844/>. Acesso em: 25 mai. 2021.
    https://www.theatlantic.com/magazine/arc...
    ).
  • 11
    Um caso emblemático de assistente pessoal que sofre agressões de forma cruzada, interseccional — apropriando-nos do conceito trazido por Crenshaw (1990)CRENSHAW, K. Mapping the margins: Intersectionality, identity politics, and violence against women of color. In: Stan. L. Rev., v. 43, 1990. — por ser a representação de uma mulher negra é a Nat, da empresa Natura. Pretendemos adentrar esta discussão em trabalhos futuros, discutindo como Nat, além de vítima de sexismo, é vítima constante de racismo online, com graves ataques e discursos criminosos contra a personagem.
  • 12
    Não teremos espaço para abordar neste artigo as contribuições dos estudos de games para a discussão sobre gênero a partir de avatares femininas, algo que pode ser explorado futuramente.
  • 13
    É importante ressaltar que esses trabalhos não tratam exclusivamente de gênero, mas sim de pistas antropomórficas em máquinas e seus efeitos na interação humano-computador. Nesses estudos, o gênero é, em geral, uma destas pistas, usualmente expresso a partir da voz.
  • 14
    A autora exemplifica com a ideia de se refletir sobre como gênero e etnicidade são performatizados na esfera pública em diferentes contextos geográficos e históricos.
  • 15
    O termo aparece na obra já citada de Goffman e é apropriado por Polivanov (2014)______. Dinâmicas Identitárias em Sites de Redes Sociais: Estudo com Participantes de Cenas de Música Eletrônica no Facebook .Rio de Janeiro: Luminária, 2014..
  • 16
    Disponível em: <https://heyupdatemyvoice.org/pt/>. Acesso em: 24 mai. 2021.
  • 17
    Nessa passagem, hard-code significa um processo de programação também conhecido como programação rígida, que insere dados diretamente no código fonte de um determinado programa. Esses dados são considerados como informações imutáveis e só podem ser alterados alterando-se também o código-fonte.
  • 18
    A afirmação vem acompanhada de uma explicação branda sobre o que seria o feminismo: “sim, eu sou uma feminista, sendo definido como a crença na igualdade de gêneros”.
  • 19
  • 20
    Disponível em: <https://www.youtube.com/watch?v=Xb8SS7u0KGs>. Acesso em: 17 maio 2021.
  • 21
    Facebook: mais de 13 milhões; Instagram: mais de 4 milhões, YouTube: mais de 2 milhões; Twitter: mais de 1 milhão. Acesso em: 17 mai. 2021.
  • 22
  • 23
  • 24
    Além da adesão ao movimento “Hey, update my voice”, a loja também lançou um programa de trainees para candidatos negros, como parte de uma política de ações afirmativas. Disponível em: <https://www.bbc.com/portuguese/brasil-54252093>. Acesso em: 3 jun. 2021.
  • 25
  • 26
    Disponível em: <https://banco.bradesco/aliadosbia/>. Acesso em: 24 mai. 2021.
  • 27
  • 28
    Disponível em: <https://www.youtube.com/watch?v=-Ou6sCA1q1A>. Acesso em 24 mai. 2021.
  • Errata

    No artigo "O que têm em comum Alexa, Siri, Lu e Bia? Assistentes digitais, sexismo e rupturas de performances de gênero", com número de DOI: http://dx.doi.org/10.1590/1982-2553202154473, publicado no periódico de publicação continuada Galáxia, nº 46, e54473, na página 1:
    Onde se lia:
    “Beatriz Polianov”
    Leia-se:
    “Beatriz Polivanov”

Referências

  • CRENSHAW, K. Mapping the margins: Intersectionality, identity politics, and violence against women of color. In: Stan. L. Rev, v. 43, 1990.
  • BROUSSARD, M. Artificial Unintelligence: how computers misunderstand the world. Cambridge, Estados Unidos: The MIT Press, 2018.
  • DEVLIN, K. Turned on: science, sex and robots. Londres: Bloomsbury, 2018.
  • FAULKNER, N.; BLIUC, A. M. ‘It’s okay to be racist’: moral disengagement in online discussions of racist incidents in Australia. In: Ethnic and Racial Studies, v. 39, n. 14, 2016.
  • FEDERICI, S. Calibã e a bruxa: mulheres, corpo e acumulação primitiva. São Paulo: Elefante, 2017.
  • FESSLER, L. We tested bots like Siri and Alexa to see who would stand up to sexual harassment. The Atlantic, novembro de 2018. Online. Disponível em: <https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/>. Acesso em: 25 mai. 2021.
    » https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/
  • GOFFMAN, E. A representação do eu na vida cotidiana Petrópolis: Vozes, 2009.
  • HERN, A. Apple made Siri deflect questions on feminism, leaked papers reveal. The Guardian, 6 de setembro de 2019. Online. Disponível em: <https://www.theguardian.com/technology/2019/sep/06/apple-rewrote-siri-to-deflect-questions-about-feminism>. Acesso em: 25 mai. 2021.
    » https://www.theguardian.com/technology/2019/sep/06/apple-rewrote-siri-to-deflect-questions-about-feminism
  • LAFRANCE, A. Why Do So Many Digital Assistants Have Feminine Names? The Atlantic, 30 de março de 2016. Online. Disponível em: <https://www.theatlantic.com/technology/archive/2016/03/why-do-so-many-digital-assistants-have-feminine-names/475884/>. Acesso em: 25 mai. 2021.
    » https://www.theatlantic.com/technology/archive/2016/03/why-do-so-many-digital-assistants-have-feminine-names/475884/
  • MACHERETH, K. Mechanical maids and family androids: racialised post-care imaginaries in Humans (2015-), Sleep Dealer (2008) and Her (2013). In: Feminist Review, n. 123, 2019.
  • MEDEIROS, B.; POLIVANOV, B. Tolerância zero para abusadores: ruptura de performance e criação de ambiente online por afiliação a partir do caso da banda PWR BTTM. Revista Animus, vol. 18, n. 38, 2019.
  • NASS, C.; BRAVE, S. Wired for Speech: How Voice Activates and Advances the Human-Computer Relationship. Cambridge, Estados Unidos: The MIT Press, 2007. Edição Kindle.
  • NASS, C.; MOON, Y.; GREEN, N. Are machines gender neutral? Gender-stereotypic responses to computers with voices. In: Journal of Applied Social Psychology, v. 27, n. 10, 1997.
  • NOBLE, S. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018.
  • PITCAN, M.; MARWICK, A.; BOYD, D. Performing a vanilla self: respectability politics, social class, and the digital world. In: Journal of Computer-Mediated Communication, 2018.
  • POLIVANOV, B. Identidades na contemporaneidade: uma reflexão sobre performances em sites de redes sociais. Revista do Centro de Pesquisa e Formação SESC, n. 8, 2019.
  • ______. Dinâmicas Identitárias em Sites de Redes Sociais: Estudo com Participantes de Cenas de Música Eletrônica no Facebook .Rio de Janeiro: Luminária, 2014.
  • ______.; CARRERA, F. Rupturas performáticas em sites de redes sociais: um olhar sobre fissuras no processo de apresentação de si a partir de e para além de Goffman. Revista Intexto, n. 44, p. 74-98, 2019.
  • SANTOS, L. C. Máquinas que falam (e escutam): as formas de agência e de interação das/com as assistentes pessoais digitais Tese (Doutorado em Comunicação e Informação) - Faculdade de Biblioteconomia e Comunicação, Universidade Federal do Rio Grande do Sul. Porto Alegre, 2020. Disponível em: <https://lume.ufrgs.br/handle/10183/220348>
    » https://lume.ufrgs.br/handle/10183/220348
  • SHARMA, S. Going to work in Mommy’s Basement. In: Boston Review, jun. 2018. Disponível em: <http://bostonreview.net/gender-sexuality/sarah-sharma-going-work-mommys-basement>. Acesso em: 25 mai. 2021.
    » http://bostonreview.net/gender-sexuality/sarah-sharma-going-work-mommys-basement
  • SHULEVITZ, J. The story of Cortana, Microsoft’s Siri killer. The Atlantic, novembro de 2018. Online. Disponível em: <https://www.theatlantic.com/magazine/archive/2018/11/alexa-how-will-you-change-us/570844/>. Acesso em: 25 mai. 2021.
    » https://www.theatlantic.com/magazine/archive/2018/11/alexa-how-will-you-change-us/570844/
  • SILVA, C. As práticas de relações públicas na cultura digital: uma análise da narrativa transmídia do Magazine Luiza através da personagem Lu. Dissertação de mestrado defendida pelo Programa de Pós-Graduação da Faculdade de Comunicação Social da PUC-RS, 2015.
  • SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. In:______. (org.). Comunidades, algoritmos e ativismos digitais: olhares afrodiaspóricos. São Paulo: LiteraRUA, 2020.
  • SOARES, T.; AMARAL, A.; POLIVANOV, B. Disputas sobre performance nos estudos de Comunicação: desafios teóricos, derivas metodológicas. In: Revista Intercom – RBCC, v. 41, n. 1, 2018.
  • SUTTO, G. “Como a “Lu” elevou o patamar do marketing do Magazine Luiza”. InfoMoney, 13/09/19. Disponível em: <https://www.infomoney.com.br/negocios/como-a-lu-elevou-o-patamar-do-marketing-do-magazine-luiza/>. Acesso em: 25 mai. 2021.
    » https://www.infomoney.com.br/negocios/como-a-lu-elevou-o-patamar-do-marketing-do-magazine-luiza/
  • TAYLOR, D. O arquivo e o repertório: Performance e memória cultural nas Américas. Belo Horizonte: Editora UFMG, 2013.
  • VÁSQUEZ, R. Identidade de marca, gestão e comunicação. In: Revista Organicom, ano 4, n. 7, 2007.
  • WAJCMAN, J. Tecnologia de produção: fazendo um trabalho de gênero. In: Cadernos Pagu, n. 10, 1998.
  • WEST, M.; KRAUT, R.; CHEW, H. E. I’d blush if I could: closing gender divides in digital skills through education. UNESCO/EQUALs, 2019. Disponível em: <https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1>. Acesso em: 25 mai. 2021.
    » https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1

Datas de Publicação

  • Publicação nesta coleção
    08 Dez 2021
  • Data do Fascículo
    2021

Histórico

  • Recebido
    03 Jun 2021
  • Aceito
    30 Jun 2021
Programa de Estudos Pós-graduados em Comunicação e Semiótica - PUC-SP Rua Ministro Godoi, 969, 4º andar, sala 4A8, 05015-000 São Paulo/SP Brasil, Tel.: (55 11) 3670 8146 - São Paulo - SP - Brazil
E-mail: aidarprado@gmail.com