Carta do Especialista 14/10/2022

2022-10-15


Carta do especialista 🧐

Sexta-feira, 14 de outubro de 2022

Na carta de hoje você lerá mais de Inteligência Artificial do que estamos lendo de política nos grupos de WhatsApp nos últimos tempos… Mas garanto que será mais construtivo…rs 😂… As aplicações de IA vão desde a replicação artificial de um cérebro e da criação de músicas e falas, até a detecção de doenças pela voz e pelo scanneamento da retina. E finalizam com a mudança de sotaque nas vozes de funcionários de call center.
Bora lá!

🧠 O cérebro humano e a criação de uma réplica artificial

Na última edição da Carta, comentei sobre o ambicioso projeto de mapeamento completo do cérebro humano: os estudiosos querem ter um conhecimento ainda maior do cérebro para poder detectar doenças neurológicas, distúrbios, além de usar estas informações para apoiar o desenvolvimento de inteligência artificial.

A estrutura de nosso cérebro é muito complexa, o que faz dele um mistério que deixa os melhores cientistas e filósofos do mundo com mais perguntas do que respostas. E o único caminho que está sendo encontrado para recriar esta estrutura de maneira artificial é através da aplicação da Inteligência Artificial a partir do mapeamento do cérebro, com informações originadas pela utilização de tomografia por emissão positiva (PET), ressonância magnética (MRI) e tomografia axial computadorizada (CAT). Estas técnicas mostram a estrutura do cérebro, mas não a atividade o que somente um novo nível de inteligência poderá alcançar.

Devido a conexão mutualmente benéfica entre IA e neurociência, a IA tem se tornado uma ferramenta de valor inestimável na pesquisa neurocientífica. Os modelos de inteligência artificial projetados para realizar tarefas baseadas em inteligência estão oferecendo novas teorias sobre como os mesmos processos são gerenciados no cérebro.

Desde que as pesquisas no campo de IA emergiram em meados do século XX, o cérebro humano tem sido a fonte de inspiração primária para o desenvolvimento de sistemas de inteligência artificial. A arquitetura do cérebro, assim como a sua capacidade de neuroplasticidade, serve como uma prova de conceito para um sistema de inteligência completo capaz de percepção, planejamento e tomada de decisão.

Além disto, a maioria dos cientistas entende que dominar a capacidade de simular os padrões de atividade cerebral, é um passo crucial para de desenvolver uma máquina com inteligência verdadeira. Tentativa e erro tradicionalmente tomam muito tempo analisando a atividade de um cérebro com simulação neural, mas a IA tem tornado esta técnica muito mais eficiente. Inclusive os cientistas já consideram a criação de um novo nível de IA, o que estão chamando de IAA, inteligência artificial artificial, praticamente a recriação de uma versão artificial do cérebro humano.

Apesar da confusão de utilização de palavras redundantes neste conceito o objetivo é conseguir progredir sem utilizar métodos invasivos como inserção de eletrodos no cérebro que habitualmente tem gerado muitas informações. Ao abrir o crânio e colocar eletrodos diretamente no cérebro, as técnicas invasivas provaram ser os métodos mais eficazes até hoje para obter uma atividade contínua clara.

Há outros grandes desafios para colocar este conceito em prática, como manter esta IAA constantemente alimentada com a quantidade de necessários inputs que o cérebro humano recebe, como tratar o conceito de consciência, como construir modelos interagindo através da realidade virtual, como processar as informações com velocidade e padrões semelhantes.

Quantos anos o ser humano demorou para entender que nossos corpos eram formados por células e moléculas? Antes do microscópio, tudo era invisível para nós. O fato é que quanto mais evoluímos o estudo do cérebro humano, mais estamos demonstrando a capacidade de replicá-lo de maneira artificial. Até onde iremos chegar, não temos certeza…

Há alguma lei ou código de ética que proíba que você faça o upload do seu cérebro e possa viver num mundo virtual, como na série Upload da Amazon Prime? Acho que não.

E se tecnicamente for possível…Você consideraria a opção de passar a viver assim?

🎵 Okay Google, quer dizer que você virou compositor?

O Google criou uma nova IA, a AudioLM, que pode, a partir de apenas alguns segundos de música, criar a continuidade dela. Além disso, o sistema pode fazer o mesmo com a fala e sons complexos que se encaixam no estilo do prompt, de forma quase indistinguível do original.

A técnica mostra-se promissora para acelerar o processo de treinamento da IA para gerar áudio e, eventualmente, poderá ser usada para gerar automaticamente músicas para acompanhar vídeos.

Atualmente vozes artificiais em sistemas são comuns, como a assistente virtual Alexa, que usa processamento de linguagem natural. Sistemas de música de IA, como o Jukebox da OpenAI, já geram resultados impressionantes, porém a maioria das técnicas existentes precisa de pessoas para preparar transcrições e rotular dados de treinamento baseados em texto, o que leva muito tempo e trabalho humano. A Jukebox, por sua vez, usa dados baseados em texto para gerar letras de músicas, assim como a Dall-E e outras IAs tem trabalhado na criação de imagens.

A proposta do AudioLM, já é diferente, pois não requer transcrição ou rotulagem. Em vez disso, os bancos de dados de som são inseridos no programa e o aprendizado de máquina é usado para compactar os arquivos de áudio em trechos de som, chamados “tokens”, sem perder muita informação. Esses dados de treinamento tokenizados são então alimentados em um modelo de aprendizado de máquina que usa processamento de linguagem natural para aprender os padrões do som.

Para gerar o áudio, alguns segundos de som são inseridos no AudioLM, que então prevê o que vem a seguir. O processo é semelhante ao modo como modelos de linguagem como o GPT-3 preveem quais frases e palavras normalmente seguem umas às outras.

Os clipes de áudio lançados pela equipe soam bem naturais. A música de piano gerada usando AudioLM soa mais fluida do que a gerada usando técnicas de IA existentes, que normalmente soam caóticas.

O pesquisador Roger Dannenbergm da Universidade Carnergie Mellon, atesta a qualidade da ferramenta, reforçando que ela é surpreendentemente boa em recriar padrões existentes nas músicas feitas por humanos e que ela tem demonstrando capacidade em aprender algumas estruturas de múltiplos níveis.

O mais incrível é que a Audio LM não se restringe à música. Como foi treinada com bibliotecas de sequencias de falas humanas, ela consegue gerar a continuidade da fala com sotaque e cadência do orador original. Apesar de, por ora, gerar algumas frases que não façam tanto sentido…

Os pesquisadores chamam a atenção quanto à ética na utilização da solução, visto que ela pode ser utilizada para outras finalidades e ainda a questão de direitos autorais daqueles registros iniciais feitos por humanos.

Bem, são questões que temos sempre que manter no radar quando avançamos nas soluções tecnológicas… 🤨

Saiba mais no MIT Technology Review.

🗣️ Diagnóstico de doenças baseados na voz do paciente

E, fazendo uma conexão com a notícia anterior, cujo foco era som, pesquisadores do Instituto Nacional de Saúde estão financiando um grande projeto de pesquisa para coletar dados de voz e desenvolver uma IA que pode diagnosticar doenças com base na fala do paciente.

Todas as etapas da fala, desde a cordas vocais, até padrões de respiração ao falarmos, geram informações importantes para detectar estado de saúde, de acordo com o laringologista, Dr. Yael Bensoussan, diretor do Health Voice Center da Universidade do Sul da Flórida e líder do estudo.

Alguém com a fala afetada, com um ritmo mais lento e tom mais baixo, pode ser portador de doença de Parkinson. A má articulação da voz é um sinal de acidente vascular cerebral. A partir da voz, os cientistas podem até diagnosticar depressão ou câncer. Para o projeto a equipe começará coletando vozes de pessoas com problemas em cinco áreas: distúrbios neurológicos, distúrbios de voz, distúrbios de humor, distúrbios respiratórios e distúrbios pediátricos, como autismo e atrasos na fala.

E ele faz parte do programa “Bridge to AI” do NIH, lançado há mais de um ano com mais de US$ 100 milhões em financiamento do governo federal americano, com o objetivo de criar bancos de dados de saúde em larga escala para medicina de precisão.

“Estávamos realmente carentes do que chamamos de bancos de dados de código aberto”, diz Bensoussan. “Cada instituição tem seu próprio banco de dados de dados. Mas criar essas redes e essas infraestruturas foi muito importante para permitir que pesquisadores de outras gerações usassem esses dados.”

Diversas pesquisas já foram realizadas utilizando IA para estudar vozes humanas, mas de maneira isolada, sempre em um nível menor. Pela primeira vez, dados serão coletados nesse nível, em um trabalho colaborativo e construindo uma rede. Neste caso, com a colaboração de USF, Cornell e 10 outras instituições.

O próximo objetivo é a criação de um app, pra ser usado pra comunidades rurais e/ou carentes, como suporte remoto para médicos especialistas. Com o tempo, Iphones e dispositivos com Alexa poderão a partir de sinais da sua voz, automaticamente acessar serviços médicos. Muito legal, não é?

Saiba mais no NPR.

👁️ Detecção de risco de doença cardíaca a partir da retina

Já que o assunto é IA, conheça o sistema que analisa as veias e artérias do olho e em menos 60 segundos, consegue prever risco de doença cardíaca: a pesquisa é promissora e abre novos caminhos para desenvolver exames cardiovasculares rápidos e o melhor, baratos. O método será menos invasivo e permitirá que os pacientes saibam o seu risco de acidente vascular cerebral e ataque cardíaco sem a necessidade de exames de sangue ou mesmo medições de pressão arterial.

“Esta ferramenta de IA pode informar a alguém em 60 segundos ou menos seu nível de risco”, disse a principal autora do estudo, Alicja Rudnicka, ao The Guardian. O estudo descobriu que as previsões eram tão precisas quanto as produzidas pelos testes atuais.

O software funciona analisando a teia de vasos sanguíneos contidos na retina do olho. Ele mede a área total coberta por essas artérias e veias, bem como sua largura e “tortuosidade” (quão flexíveis elas são). Todos esses fatores são afetados pela saúde do coração de uma pessoa, permitindo que o software faça previsões sobre o risco de doença cardíaca do indivíduo apenas observando seu olho.

Parafraseado a frase: “o que os olhos não veem, o coração não sente”, agora é: “o que a IA vê nos olhos, é o que o coração sente” rs 😂

Saiba mais no The Verge.

🧑🏼‍💻 IA mudando o sotaque de funcionários de call center

Acredite ou não, mas uma startup desenvolveu uma IA para transformar as vozes dos funcionários indianos de call center em vozes de americanos brancos. A justificativa é a de buscar maneiras de combater o preconceito neste setor de atendimento.

Às vezes, as startups do Vale do Silício parecem ter como objetivo criar usos distópicos da Inteligência Artificial. No início de agosto, tivemos o chatbot racista da Meta e, em junho, a IA do Google que convenceu um engenheiro de que criou vida própria. Desta vez, a startup Sanas, com sede em Palo Alto, apresentou ao mundo uma IA com o objetivo de fazer com que os funcionários estrangeiros do call center parecessem neutros.

A Sanas é uma startup que oferece “tradução de sotaque” para funcionários de call center, um trabalho que tende a ser terceirizado para mercados estrangeiros mais baratos, como Índia e Filipinas. A Sanas, fundada por três graduados de Stanford, oferece um serviço de tradução de sotaque em tempo real, supostamente para facilitar a compreensão dos funcionários do call center. Já recebeu mais de US$ 30 milhões em financiamento de capital de risco.

De acordo com o presidente da Sanas, Marty Sarim: a empresa não enxerga problemas em sotaques, afinal todos nós temos, mas a questão é que por vezes causam preconceito e mal-entendidos.

Com base na demo que você pode experimentar no site da Sanas, onde você pode “ouvir a mágica “, realmente funciona. O software não apenas remove o sotaque, mas substitui a voz por algo inquietantemente robótico semelhante ao sotaque padrão do inglês americano. De acordo com seu site, a Sanas acredita que isso permitirá que os funcionários do call center “recuperem o poder de sua própria voz”.

Uma comparação comum com a IA de Sanas foi com o filme de 2018, “Sorry to Bother You” , onde o personagem principal, um homem negro, adotava uma “voz branca” para obter mais vendas em seu trabalho de call center. Enquanto Sanas afirma que sua IA visa combater o preconceito, os críticos afirmam que a “tradução de sotaque” é outra maneira de desumanizar um trabalho já desumanizador. Realmente eu mesmo acho bem controversa esta iniciativa. Se bem que lembro que os apresentadores do Jornal Nacional da Globo parecem usar algo assim…rs 😂

A IA da Sanas não soar humana também não parece resolver o problema. Segundo Kiran Mirchandani, da Universidade de Toronto, cuja pesquisa foi sobre o tratamento de funcionários indianos de call centers, ela disse que pessoas que já estão predispostas a distribuir abusos racistas a funcionários de call centers também não aceitarão uma voz robótica por telefone.

Essa história está dando o que falar, mas e você, o que achou da iniciativa?

Acesse o Vice para saber mais.

Por hoje é só, até semana que vem!

Renato Grau



Você também pode se interessar

Fique por dentro de tudo!