A ferramenta Personal Voice que está a ser desenvolvida pela Apple para os iPhone permite aos utilizadores ler pequenos textos que são gravados para a tecnologia aprender como soa a sua voz. Depois, a Live Speech vai usar uma voz sintetizada para ler esses textos de volta, com o tom e timbre do utilizador, durante chamadas de voz, conversas via FaceTime ou mesmo cara a cara. Os utilizadores vão poder tirar partido destas ferramentas para, por exemplo, gravar frases ditas frequentemente e utilizá-las durante conversas. Estas ferramentas fazem parte de uma série de funcionalidades de acessibilidade que a Apple está a desenvolver para o iPhone e o iPad.
O objetivo primário é aumentar a inclusão nos dispositivos, para pessoas com deficiências cognitivas, visuais, auditivas ou de mobilidade. Um exemplo de uso citado pela Apple é o das pessoas que, devido a doença, podem vir a perder a voz ao longo do tempo.
“Estas funcionalidades inovadoras foram desenvolvidas com o feedback dos membros de comunidades de pessoas com deficiências ao longo de todo o processo, para apoiar diversos conjuntos de utilizadores e ajudar as pessoas a manterem-se conectadas de formas diferentes”, explica Sarah Herrlinger, diretora da Apple para Iniciativas e Políticas de Acessibilidade à CNN.
O sistema usa aprendizagem de máquina ao nível do dispositivo, para manter a informação do utilizador privada e segura.
Resta perceber como é que a comunidade vai receber este tipo de funcionalidades, especialmente numa altura em que estão a ser discutidos temas como a proliferação dos conteúdos deepfake, onde vídeos e áudios com aparência legítima são postos a circular com a intenção de enganar outras pessoas.
Também para melhorar a acessibilidade, a Apple vai lançar o Assistive Access, onde combina algumas das apps mais populares do iOS numa única, com botões grandes, de elevado contraste e grandes etiquetas e melhorar a Lupa, que agora vai ter um modo de deteção para ajudar na interação com objetos físicos.