Amazon Echo ha segretamente registrato una conversazione di famiglia e ne ha inviato una copia senza autorizzazione

Dimentica la risata inquietante. Per una famiglia a Portland, in Oregon, un dispositivo Amazon Echo non è diventato un problema. Non solo uno degli altoparlanti intelligenti più venduti nella loro casa ha registrato le loro conversazioni, ma ha anche inviato quelle registrazioni a qualcuno senza il permesso della famiglia. Il presunto episodio ti fa domandare se aziende come Amazon si preoccupano della privacy quando si tratta di dispositivi domestici intelligenti.

Secondo KIRO-TV, la famiglia Oregon amava i dispositivi Amazon e li usava per controllare il calore, le luci e il sistema di sicurezza della propria casa. Tuttavia, poi è successo qualcosa di strano.

Secondo Danielle, che non voleva che KIRO-TV usasse il suo cognome, qualcuno la chiamò a casa all'inizio di maggio dicendole di scollegare i suoi dispositivi Alexa perché "sei stato hackerato". Ha spiegato che aveva ricevuto file audio di registrazioni dall'interno della casa di Danielle. La persona all'altro capo del telefono non era una sconosciuta, ma uno dei dipendenti di suo marito. Le sue informazioni personali erano nella lista dei contatti di Alexa.

Allora, cos'è successo?

In una dichiarazione e-mail a Il Washington Post, che è stato ripreso dalla storia di KIRO-TV, Amazon ha spiegato che l'Echo probabilmente si è svegliato quando ha sentito una parola che suonava come "Alexa".

Da li:

La conversazione successiva è stata ascoltata come una richiesta "invia messaggio". A quel punto, Alexa disse ad alta voce "A chi?" A quel punto, la conversazione in background è stata interpretata come un nome nell'elenco dei contatti dei clienti.

Hanno concluso: "Per quanto improbabile sia questa serie di eventi, stiamo valutando le opzioni per rendere questo caso ancora meno probabile."

Questa non è la prima volta che l'assistente vocale di Amazon è stato accusato di ascoltare le persone senza il loro permesso. I dispositivi intelligenti di Amazon dovrebbero registrare l'audio solo dopo che un utente ha emesso un comando vocale, noto come "parola sveglia". Ad aprile, tuttavia, i ricercatori hanno scoperto un difetto nell'assistente vocale Alexa che ha permesso al dispositivo di continuare ad ascoltare e registrare. Dopo aver sentito i ricercatori, Amazon ha risolto la vulnerabilità.

Il modo migliore per garantire che Alexa, Siri, Google Home o qualsiasi altro assistente vocale non stia registrando la conversazione è spegnere il dispositivo quando non è in uso. Altrimenti, c'è sempre la possibilità che tu venga registrato.

Tuttavia, la storia qui menzionata sembra strana, nella migliore delle ipotesi. Non sto dicendo che non è successo, ma sembra che Alexa abbia dovuto saltare attraverso un numero minaccioso di cerchi per fare ciò che la famiglia dice di aver fatto. Inoltre, anche la spiegazione di Amazon suona oltre ogni ragionevole, non credi?

Credi a questa storia? Fateci sapere nei commenti qui sotto.