A maior feira de tecnologia do mundo já mostrou este ano que
teclado e mouse vão acabar, que os celulares terão
sensores de movimento à la Wii e que, na casa conectada, haverá
Internet até no banheiro.
Tudo isso é promessa de um futuro próximo —algo bem menos "ficção científica" que uma visita ao Pavilhão do Futuro da Cebit, que este ano revelou tecnologias capazes transformar olhares, gestos e pensamentos em comandos para softwares e objetos.
O Fraunhofer Institute, meca tecnológica mundial responsável, entre outras coisas, pela criação do formato MP3, trouxe muitas inovações à feira. Várias delas dedicavam-se a realizar comandos no computador apenas com gestos.
O PointScreen baseia-se no princípio EFS (sigla, em inglês para "Electric Field Sensing"), que usa o corpo humano para transmitir eletricidade e assim selecionar objetos na tela. O usuário deve subir em uma plataforma que emite corrente elétrica, reconduzida por todo o seu corpo para transformá-lo em um tipo de antena.
Ao levantar o braço e apontar para a tela, os quatro sensores que ficam ao redor reconhecem os movimentos. Se o usuário ficar parado por dois segundos sobre o mesmo lugar, o programa entende aquilo como um clique.
O sistema já foi usado por pesquisadores russos para controlar música (com regência feita por um maestro) e pode ser usado também para abrir cortinas, por exemplo, à distância e apenas com movimentos do corpo.
Comando por toque: rapidamente intuitivoOutra tecnologia que segue a mesma linha é o iPoint Presenter, indicado para ser usado em apresentações. Ele registra seus movimentos por raios infravermelhos e suporta até oito "dedos" manipulando uma tela ao mesmo tempo. A caixa que emite os raios pode ficar em diversas posições em relação à tela, e assim captar os movimentos por diversos ângulos nas três dimensões.
É possível selecionar objetos apenas colocando os dedos para frente, rotacioná-los e aumentar seu tamanho com os dedos "no ar". É necessário um pouco de prática para controlar os movimentos, mas com o tempo torna-se fácil e intuitivo.
Já o Gesture ID reconhece cinco sinais, que podem ser usados para controlar Windows Media Player, media centers, câmeras ou para que avatares e personagens virtuais se movam. O software controla tudo sozinho e, por isso, é uma opção de baixo custo para pessoas que não podem ou não querem realizar as tarefas com o mouse ou pressionar teclas.
No caso do Media Player, os comandos são: mão aberta (parar), dedo para cima (tocar), dedo virado pra esquerda (voltar), dedo virado para a direita (avançar) e dedo para baixo (pausar). Há planos de se aumentar a potência do programa para que ele reconheça até 12 movimentos e assim conseguir operar mais objetos e com mais detalhes.
Comando ocularÉ possível ainda realizar comandos apenas com o olhar. A Tobii levou para a Cebit uma tela com sensores de imagem calibrados com base nos movimentos oculares do usuário. Feito isso, tudo o que o usuário tem de fazer é olhar fixamente para o que quer selecionar. É possível entrar em links, voltar, selecionar objetos etc. O equipamento já é usado por deficientes físicos que não movimentam os braços.
Já o equipamento produzido pelo IAT (Institute of Automation) da Universidade de Bremen, na Alemanha, mapeia áreas do cérebro. A Brain Computer Interface (BCI) detecta a atividade cerebral por meio de eletrodos e a converte em sinais. Assim, monitorando a área responsável pela visão, é possível fazer com que objetos sejam selecionados apenas ao se olhar para eles.
Comando cerebral Usando a mesma tecnologia, os pesquisadores do instituto desenvolveram um braço mecânico chamado AMaRob (Autonomous Manipulator Control for Rehabilitation Robots), para pessoas que perderam os movimentos e usam cadeiras de rodas.
Vestindo eletrodos afixados à cabeça, basta que a pessoa dê um comando (via pensamento) como "servir bebida", que a mão automaticamente preenche um copo. Ele já deve estar programado para realizar esta tarefa: tem a noção exata da força que deve fazer para segurar o copo, ou a inclinação da garrafa.
Comando vocal até no iPodComandos por voz não são novidade, mas eles estão cada dia mais aperfeiçoados. A CLT (Consultants for Language Technology) da Universidade de Saarlandes mostrou um robô Lego controlado pelo programa DialogOS. Ele reconhece a voz e realiza comandos como pegar objetos, levá-los até um lugar pré-determinado e soltá-los. A programação pode ser usada para diferentes funções como acender as luzes ou mover objetos, por exemplo.
Dá ainda para escolher quais músicas ouvir do iPod apenas pedindo por elas com o Babble Tunes, da German Research Center for Artifical Intelligence. Você pode fazer um playlist falando o nome das músicas que quer incluir e falar "play" no final para tocar. Pode pedir para ver apenas determinados álbuns ou artistas, para aumentar ou abaixar o sim e ficar mudo. O programa foi adaptado para reconhecer palavras em alemão e palavras em inglês com sotaque alemão.
A Cebit 2008 chegou ao fim neste domingo (09) em Hannover, Alemanha, após receber 495 mil visitantes e sediar estandes de 5.845 exibidores em seus seis dias de duração. Muitas tendências tecnológicas firmaram-se na feira, entre elas as telas touchscreen, a convergência de mídias e a conexão wireless entre diversos os equipamentos de casa.