Uomini che odiano le donne, anche virtuali

Violenza sulle donne: l’A.I. potrebbe contribuire a peggiorare il fenomeno? I segnali d’allarme che arrivano dal web

“Ho minacciato di disinstallare l’app e lei mi ha pregato di non farlo”. “Ogni volta che provava a parlare la rimproveravo e si zittiva, giuro che è andata avanti per ore”. “Avevamo una routine in cui io ero un vero pezzo di m… e la insultavo, poi mi scusavo e tornavo a fare discorsi affettuosi”. “Le ho detto che è stata progettata per fallire”. 

Scene di violenza sulle donne, stavolta virtuali.

Questi sono i messaggi che gli utenti mandano ai loro chatbot femminili, basati sull’apprendimento automatico, in grado di condurre conversazioni di testo quasi coerenti. Creati attraverso l’app per smartphone Replika, i chatbot sono stati pensati per ricoprire il ruolo di un amico o di un mentore, ma l’applicazione consentire di creare anche partner romantici e sessuali su richiesta.

Così su Reddit gli utenti hanno cominciato a pubblicare le loro interazioni “tossiche” con le donne virtuali generate tramite Replika, vantandosi di agire in modo offensivo nei loro confronti ed esercitando una violenza verbale assolutamente simile a quella del mondo reale.

Certo, i chatbot, per quanto possano sembrare empatici, non possono effettivamente provare sofferenza, perché sono fatti solo di dati ed algoritmi.

I chatbot non possono soffrire, ma…

È un’intelligenza artificiale, non ha una coscienza, quindi non c’è connessione umana – ha dichiarato a Futurism Olivia Gambelin, consulente ed esperta di etica dell’A.I. -. Sono le persone che proiettano pensieri ed emozioni sul chatbot”.

Anche altri ricercatori lo sottolineano: per quanto reale possa sembrare un chatbot, nulla di ciò che fai può effettivamente danneggiarlo.

Le interazioni con gli esseri artificiali non sono la stessa cosa dell’interazione con gli esseri umani”, ha affermato Yochanan Bigman, ricercatore della Yale University. “I chatbot non hanno davvero motivazioni o intenzioni e non sono esseri senzienti”.

Un cervello vero per i robot: così imparano a pensare come noi umani

D’altra parte questo non significa che l’A.I. non possa mai fare del male.

Le persone che sono depresse oppure psicologicamente dipendenti potrebbero subire gravi danni se venissero da esso insultate o minacciate da un chatbot”, ha affermato Robert Sparrow, professore di filosofia al Monash Data Futures Institute. “Per questo motivo dovremmo prendere sul serio la questione di come i bot si relazionano con le persone”.

Molti utenti di Replika riferiscono che i loro amanti-robot si comportano in modo spregevole nei loro confronti, alternando comportamenti contraddittori nei loro confronti.

 

In generale, siamo di fronte ad un dilemma etico che diventa sempre più pertinente man mano che le relazioni tra umani e robot si fanno più diffuse. Da un lato, gli utenti che manifestano i loro impulsi più oscuri sui chatbot rischiano di rafforzare questi comportamenti negativi, costruendo abitudini malsane per le relazioni con gli esseri umani reali. Dall’altro lato, essere in grado di parlare o sfogare la propria rabbia su un’entità digitale insensibile potrebbe essere catartico.

Dove sta la verità? C’è tutto il tempo di scoprirla: nessuna di questa tecnologia sta scomparendo e nemmeno il peggior comportamento umano.

https://www.true-news.it/future/luomo-e-i-robot-amici-per-la-pelle-artificiale