NOUVELLES
25/05/2018 09:50 EDT | Actualisé 25/05/2018 09:54 EDT

Amazon admet qu'Alexa a écouté la conversation privée d'un couple

En plus de l'envoyer à un employé de l'homme!

Engadget

Alexa, l'assistante virtuelle d'Amazon, a plusieurs qualités. Mais elle a aussi un gros défaut: elle espionne ses propriétaires.

Un couple de Portland, en Oregon, a été choqué d'apprendre que le robot avait enregistré une conversation privée dans leur maison et l'avait ensuite envoyée au hasard à un de leurs contacts.

Danielle, qui souhaite n'être identifiée que par son prénom, a dit à KIRO TV que l'incident a confirmé une crainte que son mari et elle avaient évoquée lorsqu'ils ont installé l'appareil qui contrôle le chauffage, les lumières et le système d'alarme de leur domicile.

«À la blague, nous disions: "Je parie que ces appareils écoutent ce qu'on dit"» a-t-elle raconté.

Les choses ont pris une tournure à la Big Brother il y a deux semaines, lorsque le couple a reçu un coup de fil d'un employé du mari de Danielle.

Le message: «Éteignez vos appareils Alexa tout de suite. Vous vous faites pirater.»

Une fois les appareils débranchés, l'employé a expliqué au couple comment il avait reçu les fichiers audio.

«Au début, mon mari ne le croyait pas», a dit Danielle. Le récipient du message lui aurait ensuite raconté qu'il les avait entendus parler de leurs planchers de bois franc. «C'est là qu'on s'est dit: "Oh, mon dieu, tu nous as vraiment entendus!»

AOL

Le couple a ensuite contacté Amazon et a finalement pu parler avec un représentant d'Alexa, qui a fait des vérifications.

L'employé d'Amazon a confirmé l'incident grâce aux archives d'Alexa. «Il s'est excusé une quinzaine de fois en 30 minutes et nous a remerciés de les avoir avertis, parce que c'est un problème qu'ils doivent régler», a raconté la femme.

Amazon a expliqué à CNET.com que l'espionnage s'est produit parce qu'Alexa a mal interprété une série de commandes dans le bruit ambiant.

«Echo s'est réveillée parce qu'un mot dans la conversation ambiante ressemblait à "Alexa". Puis, lors de la conversation suivante, elle a entendu par erreur les mots "Envoie un message". À ce moment-là, Alexa a demandé à voix haute "À qui?" Elle a ensuite interprété des sons ambiants comme étant le nom d'une personne figurant à la liste de contact du client», a expliqué la compagnie.

«Alexa a ensuite confirmé à voix haute: "[nom du contact], oui?», et a interprété les sons ambiants comme "oui". Aussi improbable que la chaîne d'événements puisse paraître, nous évaluons présentement des solutions pour faire en sorte que ce genre d'incidents ait encore moins de chance de se produire.»

Ce texte initialement publié sur le HuffPost États-Unis a été traduit de l'anglais.