A possibilidade de robôs adquirirem emoções humanas é um tema bastante explorado na ficção científica – vide filmes como Blade Runner e, mais recentemente, Ex machina. Mas parece estar mais perto de se tornar realidade. Cientistas do Instituto Avançado de Ciência e Tecnologia, no Japão, desenvolveram um sistema que, segundo eles, é capaz de dar aos robôs inteligência emocional. Como base, eles usam a neurociência.
Por hora, o máximo que essas máquinas conseguem fazer é falar com seres humanos, desde que recebam instruções lógicas para isso. Mas os cientistas japoneses focaram seu estudo na “emoção bidimensional”, definida como uma transição emocional capaz de ser interpretada por meio da fala.
“A emoção dimensional contínua pode ajudar um robô a capturar a dinâmica do tempo do estado emocional de um locutor e, consequentemente, ajustar sua forma de interação e conteúdo em tempo real”, disse o professor Masashi Unoki, um dos responsáveis pelo estudo, em depoimento reproduzido pelo Canaltech.
Até então, modelos de percepção auditiva eram capazes de simular o ouvido humano, oferecendo indícios de captura de emoção. Mas eram complexos demais para serem usados em robôs. Já o trabalho do Instituto Avançado de Ciência e Tecnologia se utiliza de neurociência cognitiva.
O estudo indica que o cérebro humano pode formar ramificações neurais com diferentes graus de sons espectrais – a representação das amplitudes e intensidades dos componentes ondulatórios desses sons. A partir disso, foi criado um sistema chamado “cocleograma filtrado por modulação de resolução múltipla” (MMCG, na sigla em inglês) – a cóclea é o órgão sensorial da audição.
DIFERENCIAÇÃO DE EMOÇÕES DURANTE UM DIÁLOGO
O maior mérito do MMCG é captar as emoções de forma muito mais ampla e precisa do que a dos sistemas explorados até então, limitados à acústica da fala. Os cientistas também notaram que a rede neural do cérebro humano consegue reconhecer de forma precisa as emoções bidimensionais, como energia versus cansaço, ou felicidade versus infelicidade.
O sistema combina quatro cocleogramas filtrados por modulação com diferentes resoluções. Com isso, consegue interpretar a frequência temporal e contextual durante uma conversa. Uma rede neural paralela – chamada memória longa de curto prazo – analisa os dados obtidos na fala. Essa rede neural é capaz de prever com precisão as emoções bidimensionais, fundamentais para uma comunicação emocional entre homem e máquina.
O objetivo dos cientistas japoneses é que os robôs diferenciem emoções durante um diálogo e, a partir daí, tomem decisões num contexto que esteja além da comunicação verbal.
Em 2018, cientistas japoneses – da Omron Automation – já haviam apresentado o Forpheus, um robô capaz de interpretar a linguagem corporal humana. Num jogo de pingue-pongue, por exemplo, ele podia avaliar a capacidade de seu adversário e, em tese, prever a próxima jogada.