Imagine que você está em seu trajeto diário para o trabalho, dirigindo por uma rodovia lotada enquanto tenta resistir a olhar para seu telefone. Você já está um pouco estressado porque não dormiu bem, acordou tarde e tem uma reunião importante em algumas horas, mas não se sente o melhor de si mesmo.
De repente, outro carro o corta, chegando muito perto de seu pára-choque dianteiro, pois ele muda de faixa. Suas sentimentos, já sombrios, saltam para o exagero, e você buzina e grita maldições que ninguém pode ouvir.
Exceto alguém – ou melhor, algo – pode ouvir: seu carro. Ouvindo suas palavras furiosas, seu tom agressivo e sua voz elevada, e vendo seu rosto sulcado, o computador de bordo entra no modo “acalmar”, como foi programado para fazer quando detecta que você está com raiva. Ele toca música relaxante no volume certo, libera um sopro de óleo essencial com aroma de lavanda, e talvez até diga algumas citações meditativas para acalmar você.
O que você pensa – arrepiante? Útil? Incrível? Esquisito? Você realmente se acalmaria, ou ficaria ainda mais zangado por um carro estar lhe dizendo o que fazer?
Cenários como este (talvez sem a parte do óleo de lavanda) podem não ser tão imaginários por muito mais tempo, especialmente se as empresas que trabalham para integrar a inteligência artificial de leitura de emoções em carros novos tiverem seu caminho. E não seria apenas uma questão de seu carro acalmar você quando você está perturbado – dependendo de que tipo de regulamentos são promulgados, os sensores, câmera e microfone do carro poderiam coletar todo tipo de dados sobre você e vendê-lo a terceiros.
Os computadores e os sentimentos
Assim como os sistemas de IA podem ser treinados para distinguir a imagem de um cão de um gato, eles podem aprender a diferenciar entre um tom de voz ou expressão facial irritado e um tom feliz. Na verdade, existe todo um ramo da inteligência de máquina dedicado à criação de sistemas que podem reconhecer e reagir às emoções humanas; é chamado de computação afetiva.
As IAs leitoras de emoções aprendem o que as diferentes emoções parecem e soam a partir de grandes conjuntos de dados rotulados; “sorriso = feliz”, “lágrimas = triste”, “gritos = zangado”, e assim por diante. Os sistemas mais sofisticados podem até mesmo pegar as micro-expressões que piscam em nossos rostos antes que tenhamos conscientemente a chance de controlá-las, conforme detalhado por Daniel Goleman em seu livro pioneiro Inteligência Emocional (compre este livro clicando aqui).
A empresa de computação afetiva Affectiva, uma spinoff do MIT Media Lab, diz que seus algoritmos são treinados em 9,5 milhões de vídeos de rostos (vídeos de rostos de pessoas enquanto fazem uma atividade, conversam ou reagem a estímulos) representando cerca de 5 bilhões de frames faciais. Fascinantemente, a Affectiva afirma que seu software pode até mesmo explicar as diferenças culturais na expressão emocional (por exemplo, é mais normalizado nas culturas ocidentais para ser muito emocionalmente expressivo, enquanto as culturas asiáticas tendem a favorecer o estoicismo e a cortesia), bem como as diferenças de gênero.
Mas por quê?
Como relatado na Motherboard, empresas como Affectiva, Cerence, Xperi e Eyeris têm planos de fazer parcerias com montadoras de automóveis e instalar sistemas de IA de leitura de emoções em carros novos. As regulamentações aprovadas no ano passado na Europa e um projeto de lei introduzido este mês no Senado dos EUA estão ajudando a tornar a ideia de “monitoramento do motorista” menos estranha, principalmente enfatizando os benefícios de segurança dos sistemas de alerta preventivo para motoristas cansados ou distraídos (lembra-se daquela parte do início sobre olhar sorrateiramente para o seu telefone? Sim, isso).
Contudo, sonolência e a distração não podem realmente ser chamadas de emoções – então por que elas estão sendo colocadas sob um guarda-chuva que tem muitas outras implicações, incluindo o que muitos podem considerar uma estranha violação da privacidade à la Big Brother?
Nossas emoções, de fato, estão entre as coisas mais privadas a nosso respeito, já que somos os únicos que conhecemos sua verdadeira natureza. Desenvolvemos a capacidade de esconder e disfarçar nossas emoções, e isto pode ser uma habilidade útil no trabalho, nos relacionamentos, e em cenários que requerem negociação ou que exijam uma expressão de jogo.
E eu não sei quanto a vocês, mas já tive mais de um bom choro no meu carro. É o lugar perfeito para isso; privado, isolado, à prova de som.
Colocar sistemas em carros que possam reconhecer e coletar dados sobre nossas emoções sob o pretexto de evitar acidentes devido ao estado de espírito de estar distraído ou ao estado físico de estar com sono, então, parece um pouco como uma armadilha e um interruptor.
Um caminho para a invasão de privacidade?
Os regulamentos europeus ajudarão a evitar que os dados do motorista sejam utilizados para qualquer outro fim que não seja garantir uma viagem mais segura. Mas os EUA estão ficando para trás na frente da privacidade, com as empresas automobilísticas largamente livres de qualquer lei que as impediria de usar os dados dos motoristas como bem entenderem.
A Affectiva lista os seguintes casos de uso para o monitoramento de ocupantes em automóveis: personalizando recomendações de conteúdo, fornecendo recomendações de rotas alternativas, adaptando condições ambientais como iluminação e aquecimento, e compreendendo a frustração do usuário com assistentes virtuais e projetando esses assistentes para serem sensíveis à emoção, de modo que sejam menos frustrantes.
Nossos telefones já fazem os dois primeiros (embora, é verdade, não devemos olhar para eles enquanto dirigimos – mas a maioria dos carros agora permite que você use o bluetooth para exibir o conteúdo de seu telefone no painel de instrumentos), e o terceiro é simplesmente uma questão de estender a mão para girar um botão ou pressionar um botão. A última parece ser a solução para um problema que não existiria sem essa… solução.
Apesar do quão desnecessário e inquietante pode parecer, no entanto, a IA de leitura de emoções não vai embora, em carros ou outros produtos e serviços onde ela possa fornecer valor.
Além da IA automotiva, a Affectiva também fabrica software para clientes no espaço publicitário. Com o consentimento, a câmera embutida nos laptops dos usuários os grava enquanto eles assistem aos anúncios, medindo sua resposta emocional, que tipo de marketing é mais provável de envolvê-los e qual a probabilidade de eles comprarem um determinado produto. A tecnologia de reconhecimento de emoções também está sendo usada ou considerada para uso em aplicações de saúde mental, call centers, monitoramento de fraudes e educação, entre outros.
Em uma palestra da TED em 2015, a co-fundadora da Affectiva, Rana El-Kaliouby, disse a seu público que estamos vivendo em um mundo cada vez mais desprovido de emoções, e seu objetivo era trazer as emoções de volta para nossas experiências digitais. Em breve elas também estarão em nossos carros; se os benefícios superarão os custos ainda não se sabe.
Este artigo foi originalmente publicado em Singularity Hub sob Creative Commons. Tradução de Redação SoCientífica.