“No Dr. Google acabamos todos a morrer de cancro”, é uma frase que ainda se ouve, mas que está cada vez mais distante da realidade. Como se percebe pelas sucessivas novidades na área da Saúde que a Google tem vindo a apresentar, em particular no já famoso evento anual The Check Up, que decorreu hoje nos EUA.
Quer seja para um utilizador acometido por alguma dúvida relacionada com a sua saúde ou para os próprios profissionais da área, a Google está decidida a ser um parceiro cada vez mais fiável e para isso tem vindo a aprimorar as soluções de pesquisa, com a introdução, óbvia, de ferramentas de Inteligência Artificial, em particular dos Large Language Models (LLM), e também através de parcerias com universidades e até com a colaboração e participação dos cidadãos.
“A IA é a tecnologia que maior impacto terá na saúde, é um acelerador da inovação”, afirmou o Diretor de Investigação da Google AI, Greg Corrado, durante um evento de apresentação das novidades, a que a Exame Informática assistiu remotamente. “Tem o potencial de melhorar os cuidados de saúde de uma forma inimaginável”
Uma das áreas em que o contributo da Google tem sido mais inovador é na dermatologia, uma área em que é muito difícil distinguir uma irritação sem risco clínico de uma mancha que tem de ser vigiada por um médico. Neste campo já tinha sido anunciada no ano passado a pesquisa por imagem no Google Lens, em que basta tirar uma foto à lesão na pele e pesquisar para encontrar uma explicação para a anomalia. Hoje, a ferramenta alimentada por IA, está disponível em mais de 150 países e as respostas à pesquisa vêm em texto, imagens e vídeo. Também foram acrescentados, na pesquisa, imagens e diagramas que tornam mais fácil a compreensão de sintomas genéricos, como dor de pescoço. Ao longo do ano, a Google irá aumentar o leque de informação em patologias como as enxaquecas, pedra do rim ou pneumonia.
‘Que tal dormi hoje, Fitbit?’
Adquirida pela Google, a marca de smartbands Fitbit integra, logicamente, esta estratégia. Reforçando o que tem vindo a ser feito, torna-se agora possível fazer perguntas de forma natural, criar gráficos personalizados, sobre o sono, por exemplo. “Há uma cada vez maior interligação entre os dados, como os minutos ativos e a qualidade do sono”, explicou a gestora de produto Florence Thng. “É como um LLM personalizado para a Saúde”, em que os modelos são treinados com os parâmetros fisiológicos do utilizador.
Cerca de 30% dos dados gerados atualmente tem origem na indústria da saúde e a tendência é para continuar a crescer, 36% ao ano. São imagens de exames de diagnóstico, histórias clínicas, informação genética. Uma amálgama de informação que se torna difícil de tratar e aceder. Para auxiliar os profissionais de saúde a desenvencilharem-se no meio destes Terabytes de informação, a Google tem vindo a aperfeiçoar o seu MedLM, o modelo de IA destinado à prática clínica, com um parceiro otimizado para a conversação, o AMIE (sigla em inglês para Explorador de Inteligência Médica Articulada) no qual se pode fazer perguntas que ajudem a reduzir a incerteza e melhorar a precisão do diagnóstico.
Dez mil imagens de cabelo e pele
Mas a saúde quando chega tem de ser para todos, defendeu durante a apresentação Ivor Horn, responsável pela equidade na saúde. “Queremos garantir que construímos ferramentas de IA que operam de forma responsável e com equidade”, disse.
Além de ter desenhado uma ferramenta para determinar o nível de equidade nos modelos de IA aplicados à saúde, a equipa de Ivor Horn criou uma base de dados de imagens de diferentes tipos de pele, a SCIN (sigla em inglês para Rede de Imagens de Condições da Pele), montada graças à colaboração de milhares de cidadãos, que enviaram mais de dez mil fotos de cabelo e pele. A partir daqui dermatologistas e investigadores classificaram cada uma das imagens, construindo assim uma ferramenta que tanto pode ser usada em investigação, formação e diagnóstico. “Atualmente, muitas bases de dados dermatológicas não são representativas da população, limitando os developers no desenvolvimento de modelos de IA equitativos”, nota o responsável. Isto porque as imagens são captadas em contexto clínico, sem que representem diferentes partes do corpo, género, tons de pele. Além disso, são quase sempre imagens de doenças graves, como o cancro, ficando de fora problemas menos severos, mas mais comuns, como situações alérgicas a anti-inflamatórias.
De qualquer modo, a última palavra continua a ser do médico. “Estamos numa fase exploratória”, sublinhou Greg Corrado. “Não pretendemos apresentar diagnósticos, nem substituir o profissional.”