Airbnb, c’est LE site de location de biens immobiliers entre particuliers. Inutile de le présenter plus, vous en avez forcément entendu parler à moins de vivre dans une grotte (que vous pouvez aussi louer sur la-dite plateforme). Mais depuis son lancement en 2008 et du fait de la nature des transactions, qui reposent sur la confiance, les problèmes sont légion.

Propriétaires peu scrupuleux proposant des biens sur-évalués ou même inexistants, locataires irrespectueux laissant derrière eux des mauvaises (voire très mauvaises) surprises. Contre ces derniers, la plateforme a déposé des brevets pour une IA  (intelligence artificielle) qui agirait comme un filtre à mauvais locataires.

Peu d'informations

En 2017, Airbnb rachète Trooly, une start-up spécialisée dans la prédiction des relations et interactions sociales (rien que ça). Cette dernière utilise des centaines d’indicateurs comme le casier judiciaire ou l’activité sur les réseaux sociaux afin de déterminer le profil des utilisateurs et ainsi évaluer leur niveau de risque. Ces informations ont été transmises par l’Evening Standard, un journal Londonien qui aurait eu accès au brevet, mais Airbnb n’a pas encore communiqué sur le sujet.

Les comportements à risque comme le narcissisme, la psychopathie ou le machiavélisme sont analysés, la moralité ainsi que les signes de névrose ou de participation à des crimes ou actions illégales afin d’établir un schéma de comportement et de caractère propre à l’utilisateur et ainsi étudier la compatibilité entre le potentiel locataire et le propriétaire.

L'abandon du bon sens

Plusieurs experts s’inquiètent des conséquences de ce choix, qui s’il se démocratise dans d’autres secteurs pourrait affecter grandement les relations humaines puisque c’est une machine qui ferait office d’intermédiaire décisionnaire, retirant ainsi la subjectivité et le bon sens des prises de décisions. Mais il permettrait aussi de réduire les risques, malgré la possibilité d’un choix qui pénaliserait une personne qui ne le mérite pas.

Nous nous dirigeons à grands pas vers une dépendance à l’IA pour des décisions face auxquelles les humains feraient normalement appel à leur bon sens – Alan Woodward, expert en cyber-sécurité à l’université de Surrey, UK

En effet, l’utilisation des « empreintes numériques personnelles » par une entreprise soulève des questions d’éthique à une époque ou la confidentialité et la vie privée sont souvent mises à mal.

Write A Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Pin It
%d blogueurs aiment cette page :