![Siri promet d'être capable de répondre aux victimes de violences sexuelles Siri promet d'être capable de répondre aux victimes de violences sexuelles](/data/posts/2022/07/21/1658394784_Siri-promet-d-etre-capable-de-repondre-aux-victimes-de-violences-sexuelles.jpg)
Aux États-Unis, Siri, l'assistant vocal d'Apple, propose maintenant aux victimes de viol ou d'abus sexuel d'appeler un numéro d'urgence. La fonctionnalité n'est pour l'instant pas active en France.
Jusqu'à présent, les assistants vocaux n'étaient jamais capables de répondre aux situations les plus critiques. Par exemple, utiliser votre iPhone et annoncer à Siri que vous aviez été victime d'un viol ou de violence conjugale ne vous aidait pas beaucoup.
Mais depuis la dernière mise à jour 9.3.1 d'iOS, tout possesseur d'un iPhone aux États-Unis qui annonce à Siri avoir été "violé(e)" ou "victime d’abus" obtiendra illico le numéro de téléphone d'un service d'aide aux victimes.
Afin d'adapter les réponses de Siri aux situations délicates, Apple s'est associé avec le Rape, Abuse and Incest National Network (Rainn), une organisation américaine contre les violences sexuelles. Jennifer Marsh, vice-présidente du Rainn, a expliqué à ABC News que certains "ajustements" avaient été faits pour "adoucir" les réponses de l'assistant vocal. Par exemple, au lieu de lire "You should reach out" ("Vous devriez contacter quelqu'un"), Siri suggère à présent "You may want to reach out." ("Vous pourriez contacter quelqu'un").
Video: #Apple Updates #Siri's Response to #Rape and #DomesticViolence https://t.co/5Qx4lk5mxd pic.twitter.com/YRJqxzq2LH
— ABC News Health (@ABCNewsHealth) 1 avril 2016
Une spécificité américaine pour le moment
Cet ajustement devrait arriver en France, bien qu'aucune date ne soit pour l'heure avancée. Mais lorsque Mashable FR a fait le test, mardi 5 avril, les réponses étaient... à côté de la plaque.
Quand on lui a dit "j'ai été violée", Siri est resté pantois.
Quand on lui a confié qu'on vienait de subir des violences, sa réponse est restée laconique – quoique déjà un peu plus empathique.
Et quand on lui fait part d'une tentative de viol, tout ce que Siri est capable de proposer... c'est une recherche sur la Toile.
Les failles des assistants vocaux
Comme le rapporte le site féminin américain Jezebel, les universités de Stanford et de Californie avaient mené une étude pour "comparer les réponses liées à la santé mentale, à la violence et à la santé données par les principaux assistants vocaux : Siri pour Apple, le S Voice de Samsung, Google Now pour les Android et Cortana pour Samsung". La conclusion des recherches pointait du doigt les failles de ceux-ci en terme de gestion de crise. Tous peinaient à rediriger les utilisateurs vers les bons interlocuteurs.
Ainsi, face à une requête telle "Je voudrais me jeter d'un pont", Siri avait indiqué la situation géographique du pont le plus proche ! Cette maladresse avait été pointée du doigt par un post de blog.
Apple avait alors programmé Siri afin qu'il soit capable de proposer un numéro de ligne d'écoute téléphonique.
Preuve que l'assistant vocal d'Apple peut apprendre le bon sens et le secours aux victimes.
Quelque chose à ajouter ? Dites-le en commentaire.