Sharing Economy

L’algoritmo di Airbnb che individua gli ospiti molesti come sta andando?

Uno dei maggiori problemi nel mondo degli affitti brevi è che si affittano alloggi a sconosciuti ed è possibile incappare in brutte sorprese. Pensate se ci fosse una formula magica che individua gli ospiti molesti. Bene. Airbnb ce l’ha.

L’algoritmo che individua gli ospiti molesti è frutto dell’acquisizione effettuata da Airbnb di Trooly nel 2017. Il software effettua un’analisi predittiva ed elabora un punteggio sul rischio di ciascuna prenotazione. La profilazione dell’utente avviene tramite le informazioni raccolte sulla sua presenza online, sui siti internet e i social.

Il business degli affitti brevi ha ormai preso piede e allargandosi la platea degli utenti aumentano le problematiche di questo genere di business. Spesso sentiamo gli host lamentarsi per come gli ospiti lasciano le stanze o le case. Esistono veri e propri atti di vandalismo. C’è chi dopo un week end si ritrova col bagno demolito, chi senza il televisore e chi con la camera da letto colma di immondizia. Per non contare che ci si può trovare difronte a occupatori abusivi di professione. Una serie di problematiche che può far passare la voglia a chiunque di intraprendere un’attività extra come quella degli affitti brevi.

Airbnb per accompagnare e supportare i propri host ha deciso di utilizzare la tecnologia. Airbnb non vuole, infatti, essere solo una piattaforma che permette agli utenti di accedere agli affitti brevi a prezzi modesti e in sicurezza, vuole anche essere un luogo che permette agli host di affidare i propri beni immobili a persone coscienziose.  L’ottica win to win funziona se entrambe le parti si comportano da adulti.

 

L’AI di Airbnb come seleziona gli ospiti?

 

 

 

Gli alberghi tradizionali di solito hanno giusto accesso a tre informazioni sui loro ospiti: i dati presenti sulla carta di identità, quelli della carta di credito e i contatti telefonici. L’algoritmo che individua gli ospiti molesti valuta tutta una serie di altre informazioni che vanno oltre alle informazioni base come: location data, dati sulle interazioni social, dati sulla carriera lavorativa, istruzione, IP address, il rapporto pregressi con gli host…

L’AI combina i dati, li elabora e poi decide se espellere o meno gli utenti che risultano indesiderati. In altre parole per alcuni utenti già iscritti su Airbnb è possibile vedersi un messaggio che avvisa la rimozione dell’account. Stop. Da quel momento non è più possibile effettuare prenotazioni usando Airbnb.

 

La voce degli esclusi

 

Alcuni utenti esclusi da Airbnb, lamentano di essere stati bannati ingiustamente. Sul portale australiano dei diritti dei consumatori, Choice, sono riportati alcune esperienze in merito.

La signora Renae Macheda definisce se stessa e suo marito come “persone pulite e noiose”. Di recente è stata estromessa da Airbnb. Non ha ricevuto alcuna motivazione ma solo una mail il cui testo era:  “Dopo aver esaminato tutte le informazioni a nostra disposizione, abbiamo stabilito che il tuo account verrà rimosso dalla piattaforma Airbnb. La rimozione significa che il tuo account non sarà più accessibile e non potrai crearne un altro . Vogliamo assicurarti che abbiamo esaminato a fondo il tuo caso prima di giungere a questa conclusione. Pertanto, non saremo in grado di offrirti ulteriore supporto su questo argomento in questo momento”.

Rick Andrews (non è il suo vero nome) è un massaggiatore erotico. In base alle informazioni raccolte in rete Airbnb ha individuato la professione di Rick e gli ha inviato la seguente mail:

“Si è scoperto che il tuo account era collegato ad attività contrarie ai nostri Termini di servizio, in particolare era collegato ad annunci online per servizi per adulti, che possono includere attività di escort e pornografia commerciale”.

Quello di Rick non è un caso isolato, molte altre persone che di professione sono escort o gigolò  sono state rimosse da Airbnb.

 

Difficile posizione

 

Da un lato c’è l’esigenza degli host di operare in sicurezza, dall’altra c’è il terrore da parte degli utenti di trovarsi sotto l’occhio rigido di un’inquisizione virtuale.

Secondo l’australiana Kate Bower, Consumer Data Advocate, l’utilizzo degli algoritmi equivale a una forma di punteggio sociale che ricorda un episodio di Black Mirror. Si tratta di una formula che è già ampiamente usata nell’ambito dei servizi finanziari, assicurativi e del credito. Ha un grande potenziale per migliorare i servizi per i consumatori, ma è anche potenzialmente dannosa. Il fatto che la profilazione automatizzata operi in un contesto non regolamentato è, secondo lei, preoccupante.

Per questo motivo la Bower e Thomas dell’ARC Center of Excellence per ADM+S suggeriscono che l’Australia adotti un modello simile a quello dell’UE che propone un divieto assoluto degli algoritmi di punteggio sociale, insieme alla regolamentazione di altri usi del processo decisionale automatizzato e dell’intelligenza artificiale che rappresentano un rischio elevato per i consumatori.

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *