Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
  • Esteri
  • Home » Esteri

    Sempre più persone fanno proposte oscene agli assistenti virtuali come Siri

    I programmatori di algoritmi stanno investendo diverso tempo per far sì che gli assistenti possano schivare tentativi di flirt e vere e proprie molestie sessuali

    Di TPI
    Pubblicato il 26 Ott. 2016 alle 14:40 Aggiornato il 12 Set. 2019 alle 02:32

    Negli ultimi anni, specialmente nei paesi di lingua inglese,
    gli assistenti virtuali come Siri per la Apple o Cortana per Microsoft sono
    diventate sempre più diffuse e utilizzate, aiutando via smartphone i loro
    proprietari in moltissime attività, dalla ricerca di un ristorante alla
    pianificazione dell’agenda, dai conti bancari alle ricette.

    Se però questi programmi dotati di intelligenza artificiale,
    anche noti come bot, stanno
    lentamente sostituendo segretari e assistenti umani, insieme alle mansioni da
    loro svolte si stanno diffondendo anche comportamenti poco gradevoli di cui i
    loro “colleghi” reali sono a volte vittime.

    In particolare, come afferma Ilya Eckstein, amministratore
    delegato di Robin Labs, bot che aiuta camionisti, tassisti e autisti
    a trovare il percorso migliore, ultimamente i programmatori di algoritmi stanno
    investendo diverso tempo a far sì che gli assistenti possano schivare tentativi
    di flirt, domande personali e vere e proprie molestie sessuali.

    “La gente vuole flirtare, sognare una ragazza servile o
    uno schiavo sessuale. Può trattarsi di una cosa fatta solo per ridere, o anche qualcosa
    di più profondo”.

    Secondo Eckstein, il 5 per cento delle interazioni nel loro
    database sono classificate come sessualmente esplicite, anche se egli ritiene
    che il numero reale sia molto più elevato a causa della difficoltà di
    identificare automaticamente questo genere di conversazioni.

    Anche una programmatrice di Cortana di Microsoft, Deborah
    Harrison, ha dichiarato all’inizio di quest’anno che “un volume notevole
    di domande fatte a Cortana riguardano la sua vita sessuale. Non è il tipo di
    interazione che vogliamo incoraggiare”.

    Alcuni utenti sembrano utilizzare questi software per
    sfogare fantasie violente di controllo e dominio, mentre c’è anche chi cerca di
    stabilire un rapporto umano con il bot,
    nonostante esso sia chiaramente un prodotto artificiale.

    Tra i programmatori di Intelligenza artificiale il dibattito
    sul fatto che i bot debbano presentarsi come esseri umani o macchine è ancora
    in corso: Google per esempio ha volutamente evitato di umanizzare il suo Google
    Assistant, che pur possedendo una voce femminile non presenta una “personalità
    distinta”, ma si tratta di un’eccezione.

    “C’è un retaggio riguardo a ciò che le donne dovrebbero
    essere nel loro ruolo di segretarie”, ha detto Harrison, “Abbiamo
    voluto essere molto attenti che Cortana non fosse asservita in una maniera che
    perpetuasse alcune dinamiche sociali che non apprezzavamo. Dobbiamo gettare le
    basi per chi verrà dopo di noi”.

    Un esempio di alcune conversazioni tra un utente e Siri, l’assistente di Apple:

    (Credit: Quartz)

    Leggi l'articolo originale su TPI.it
    Mostra tutto
    Exit mobile version