Estilo de Vida

Assistente virtual tem vida própria e se ativa sozinha

Uma família de Portland, no Estado norte-americano do Oregon, descobriu o que acontece quando a popular assistente de voz da Amazon Alexa está perdida nas traduções. A empresa afirmou nesta quinta-feira que uma “improvável série de eventos” fizeram o equipamento enviar gravações de áudio da família para seus contatos de forma aleatória. O episódio revelou como a assistente virtual pode interpretar mal as conversas como um pedido de acionamento e um comando.

Um veículo local de imprensa, «KIRO 7», reportou que uma mulher com dispositivos da Amazon em sua casa recebeu uma chamada há duas semanas de um funcionário de seu marido, dizendo que a Alexa tinha gravado uma conversa de sua família sobre pisos de madeira e enviado para ele.

“Eu me senti invadida”, disse a mulher, identificada apenas como Danielle, segundo a reportagem. “Uma total invasão de privacidade. Imediatamente eu disse, ‘eu nunca vou ligar esse dispositivo de novo porque não posso confiar nele’”.

Recomendados

Alexa, que vem com caixas de som Echo e outros aparelhos, começa a gravar depois de ouvir seu nome ou outra “palavra de ativação” selecionada por usuários. Isso significa que uma expressão parecida com Alexa, mesmo de um comercial de TV, pode ativar o dispositivo. Foi isso que aconteceu no incidente, disse a Amazon.

“Conversa subsequente foi ouvida como um pedido de ‘enviar a mensagem’”, disse a empresa em um comunicado. “Naquele ponto, Alexa disse em voz alta ‘para quem?’ e a conversa de fundo foi interpretada como um nome na lista de contatos do cliente.”

A Amazon acrescentou que a empresa está “avaliando as opções para tornar esse caso ainda menos provável.”

Garantindo aos consumidores que a segurança da Alexa é crucial para a Amazon, que tem ambições de que o dispositivo seja onipresente – seja controlando as luzes para os clientes ou fazendo pedidos junto à maior varejista online no mundo.

Pesquisadores da universidades de Berkeley e Georgetown descobriram em um estudo de 2016 que sons ininteligíveis para humanos podem disparar assistentes de voz em geral, o que levantou preocupações sobre o uso para ataques. A Amazon não comentou imediatamente sobre o assunto, mas anteriormente disse ao The New York Times que tomou medidas para manter seus dispositivos seguros.

Tags

Últimas Notícias


Nós recomendamos