Pesquisadores invadem Google Assistant, Siri e Alexa projetando comandos de luz laser neles

comandos de luz

O curioso é que vários pesquisadores Google Home, Siri e Alexa foram hackeados pela projeção de luz laser neles não é a própria notícia, que tem seu próprio significado, mas ainda não se sabe ao certo porque esses assistentes respondem à luz como se ela fosse sonora.

Nós conversamos sobre isso três assistentes são vulneráveis ​​a ataques eles sofrem de lasers que "injetam" comandos de luz inaudíveis e às vezes invisíveis em dispositivos para fazer com que portas sejam destrancadas, visite sites ou até mesmo localize veículos.

Assistente, Siri e Alexa hackearam

E está a uma distância de 110 metros do qual você pode projete luz laser de baixa frequência para ativar esses sistemas de voz em que são "injetados" comandos que realizam uma ampla variedade de ações. Esses pesquisadores conseguiram até mesmo enviar esses tipos de comandos de luz de um prédio para outro e passar pelo vidro para chegar ao dispositivo com o Google Assistant ou Siri.

Pelo que podemos dizer, o ataque tira proveito de uma vulnerabilidade existente nos microfones e que use o que é chamado de MEMS (sistemas microeletromecânicos). Os componentes microscópicos de MEMS respondem involuntariamente à luz como som.

E embora os pesquisadores tenham testado esse tipo de ataque no Google Assistant, Siri, Alexa, como até mesmo no portal do Facebook e em uma pequena série de tablets e telefones, passam a acreditar que todos os dispositivos que utilizam microfones MEMS são suscetíveis de serem atacados por esses chamados «Comandos de Luz».

Uma nova forma de ataque

Esses tipos de ataques têm várias limitações. O primeiro é aquele o invasor deve ter uma linha de visão direta para o dispositivo quem você deseja atacar. A segunda é que a luz deve ser focada com muita precisão em uma parte muito específica do microfone. Lembre-se também de que, a menos que o invasor use um laser infravermelho, a luz será facilmente vista por qualquer pessoa próxima ao dispositivo.

As descobertas desta série de pesquisadores são bastante importantes por alguns motivos. Não só pelo fato de poder atacar esta série de aparelhos controlados por voz que em uma casa gerenciam alguns aparelhos importantes, mas também mostra como os ataques podem ser realizados em ambientes quase reais.

comandos de luz

O que chama muita atenção é que a razão para o "físico" não é totalmente compreendida dos comandos de luz que se tornam parte do "exploit" ou vulnerabilidade. Na verdade, saber por que isso acontece significaria maior controle e dano sobre o ataque.

Também é impressionante que esta série de dispositivos controlados por voz não carreguem algum tipo de senha ou solicitação de PIN. Ou seja, se você consegue "hackea-los" com esse tipo de emissão de luz, pode controlar uma casa inteira na qual um Google Assistant ou Siri controla as luzes, o termostato, as travas das portas e muito mais. Quase como um filme.

Ataque de baixo custo

E podemos imaginar que ter um projetor de luz laser pode custar caro. Ou que pelo menos o custo era alto para poder perpetrar um ataque desse estilo. Para nada. Uma das configurações para ataques envolve uma despesa de $ 390 com a aquisição de um apontador laser, um driver de laser e um amplificador de som. Se já conseguirmos mais foodies, adicionaremos uma teleobjetiva por US $ 199 e podemos mirar em distâncias maiores.

comandos de luz

Você pode se perguntar quem são os pesquisadores por trás dessa descoberta surpreendente que mostra uma nova maneira de atacar uma série de dispositivos que todos nós colocamos em nossas casas. Bem, falamos sobre Takeshi Sugawara, da Universidade de Electro-Communications do Japãoe Sara Rampazzi, Benjamin Cyr, Daniel Genkin e Kevin Fu, da Universidade de Michigan. Em outras palavras, se em algum momento você pensou que estávamos falando sobre fantasia, de forma alguma, uma realidade.

um novo ataque para dispositivos operados por voz do Google Assistant, Siri e Alexa com comandos leves e que vão trazer cauda nos próximos anos; uma Google Assistant que se integra ao WhatsApp, então imagine um pouco o que pode ser feito com esses ataques.


O conteúdo do artigo segue nossos princípios de ética editorial. Para relatar um erro, clique Clique aqui.

Seja o primeiro a comentar

Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: Blog da Actualidad
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.