Um tradutor de linguagem de sinais em tempo real para surdos, alimentado por Inteligência Artificial. Esse será o projeto apresentado no Web Summit Rio 2024, nesta terça-feira (16), pelo CESAR, empresa embarcada no Porto Digital. A novidade usa da tecnologia para identificar visualmente e contextualizar gestos individuais por meio de um conjunto de dados de milhares de vídeos na língua brasileira de sinais.

Empresa do Porto Digital desenvolve tradutor de linguagem de sinais em tempo real para surdos (Imagem: Divulgação)

A dinâmica da tradução é a seguinte: com acesso ao banco de dados, a IA discerne os movimentos a partir dos contornos das mãos e pontos de articulação do sinalizante e os transforma em mensagens de texto e áudio em português em tempo real.

“Para a geração de vídeos em linguagem de sinais, as organizações realizam um intérprete sintético (um avatar virtual semelhante a um humano) usando modelos de Rede Adversarial Generativa (GAN)”, explica Victor Casadei, cientista de dados do CESAR, que co-liderou a iniciativa e estará presente para apresentar o projeto no Web Summit Rio. Participarão também Lauro Elias Neto, diretor executivo do CESAR, e Hildebrando Lima, diretor executivo de P&D da Lenovo no Brasil, empresa que financiou o projeto.

O Web Summit Rio acontece entre os dias 15 e 18 de abril no Rio de Janeiro e conta com mais de 600 palestrantes parceiros.

Você sabia?

Dados apontam que mais de 2,3 milhões de brasileiros enfrentam dificuldades de comunicação devido à surdez profunda e usam Libras e a Língua Gestual Portuguesa (LGP), juntamente com vários dialetos de sinais regionais. Em todo o mundo, são 430 milhões de pessoas que apresentam perda auditiva moderada ou grave no ouvido com melhor audição, segundo a Organização Mundial da Saúde (OMS).

A escala e a complexidade do desafio motivaram o projeto de pesquisa e desenvolvimento do CESAR, que levou cinco anos para ficar pronto.

Comments are closed, but trackbacks and pingbacks are open.