Bruno Rejony avait 52 ans et était cheminot à la SNCF. Le soir du 24 décembre, il s'est suicidé en se jetant du TGV qu'il conduisait, créant une immense pagaille sur le réseau et privant des milliers de...
Et si l'intelligence artificielle devenait indiscrète ? Amazon Alexa a été la première enceinte connectée (avec assistante personnelle) à écouter les conversations des clients. Aujourd’hui, c’est au tour de Google d’en faire de même. L'entreprise a crée Google Assistant, un système similaire à celui employé par le groupe de vente en ligne.
Ces enceintes qui vous espionnent : comment cela est-ce possible ?
Une enquête publiée le 10 juillet 2019 par le média belge VRT , stipule que des employés de la firme étudient des enregistrements conservés par Google Assistant. Le but étant d'améliorer son intelligence artificielle. Cette pratique est tout à fait légale, dans la mesure où ces éléments sont écrits noir sur blanc dans les conditions d’utilisation de l’assistant connecté. Cependant, des problèmes se posent sur le respect de la vie privée.
Ces enceintes qui vous espionnent : 1 000 fichiers audio écoutés par employé en une semaine
VRT a interrogé un salarié travaillant pour un sous-traitant de Google afin d'en savoir plus : "la firme n’est pas intéressée par ce que vous dites, mais par la façon dont vous le dites", explique cet employé, chargé de l'écoute et de l'analyse des fichiers son, à nos confrères. Selon lui, ce procédé viserait uniquement à faciliter et favoriser la compréhension des demandes de l'utilisateur par l'IA de Google Assistant. "Ce genre de travail est crucial pour le développement de nouvelles technologies comme le Google Assistant", assurent d'ailleurs les équipes de Google.
Les salariés ont violé sans le vouloir, l’intimité des utilisateurs
Selon les employés interrogés, une identité peut être découverte à cause de retranscriptions précises demandées par Google. Par ailleurs, s’ils ne savent pas écrire un nom, les journaliers doivent le chercher sur internet. Ils arrivent que les travailleurs tombent sur la personne qu’ils viennent à peine d’écouter.
De plus, une multitude de conversations ont été enregistrées par erreur. Elles sont au nombre de 153 fichiers. Certaines sont des appels professionnels voire des disputes. Dans certains cas, il est même question de potentielles violences conjugales. Un des travailleurs contactés par la chaîne d'information Belge a stipulé qu’il avait déjà écouté "une femme qui était clairement dans une situation angoissante qui impliquait peut-être de la violence physique".
L’employé peut malencontreusement avoir en main des informations sensibles, compromettantes voire se rendre témoin de situation présentant un réel danger pour autrui. Mais, dans la mesure où son travail ne consiste qu'à améliorer l’IA de Google Assistant, un réel problème éthique important se pose : il n'est pas, en théorie, autorisé à prévenir les autorités s'il écoute et discerne en différé à des scènes violentes... Pour l'heure, Google n’a toujours pas donné de consignes claires pour gérer ce genre de cas sensible souligne d'ailleurs VRT.