Um tradutor de linguagem de sinais em tempo real para surdos, alimentado por Inteligência Artificial. Esse será o projeto apresentado no Web Summit Rio 2024, nesta terça-feira (16), pelo CESAR, empresa embarcada no Porto Digital. A novidade usa da tecnologia para identificar visualmente e contextualizar gestos individuais por meio de um conjunto de dados de milhares de vídeos na língua brasileira de sinais.
A dinâmica da tradução é a seguinte: com acesso ao banco de dados, a IA discerne os movimentos a partir dos contornos das mãos e pontos de articulação do sinalizante e os transforma em mensagens de texto e áudio em português em tempo real.
“Para a geração de vídeos em linguagem de sinais, as organizações realizam um intérprete sintético (um avatar virtual semelhante a um humano) usando modelos de Rede Adversarial Generativa (GAN)”, explica Victor Casadei, cientista de dados do CESAR, que co-liderou a iniciativa e estará presente para apresentar o projeto no Web Summit Rio. Participarão também Lauro Elias Neto, diretor executivo do CESAR, e Hildebrando Lima, diretor executivo de P&D da Lenovo no Brasil, empresa que financiou o projeto.
O Web Summit Rio acontece entre os dias 15 e 18 de abril no Rio de Janeiro e conta com mais de 600 palestrantes parceiros.
Você sabia?
Dados apontam que mais de 2,3 milhões de brasileiros enfrentam dificuldades de comunicação devido à surdez profunda e usam Libras e a Língua Gestual Portuguesa (LGP), juntamente com vários dialetos de sinais regionais. Em todo o mundo, são 430 milhões de pessoas que apresentam perda auditiva moderada ou grave no ouvido com melhor audição, segundo a Organização Mundial da Saúde (OMS).
A escala e a complexidade do desafio motivaram o projeto de pesquisa e desenvolvimento do CESAR, que levou cinco anos para ficar pronto.
Comments are closed, but trackbacks and pingbacks are open.