AI: Un'auto a guida autonoma dovrebbe uccidere il bambino o la nonna ansiana? dipende dalla cultura.



Il famigerato "trolley problem" è stato presentato a milioni di persone in uno studio globale, rivelando quanto l'etica diverga tra le culture soprattutto in termini di scelte.


Nel 2014 i ricercatori del #MIT Media Lab hanno progettato un esperimento chiamato Moral #Machine. L'idea era quella di creare una #piattaforma per raccogliere le decisioni delle persone su come una auto a guida autonoma dovrebbero dare priorità alla vita, in diverse varianti del #trolley #problem.


Quattro anni dopo, la piattaforma ha registrato 40 milioni di risposte al problema è lo #studio risulta uno dei più grandi mai condotti nel suo genere, sulle preferenze morali a livello globale.


I #ricercatori hanno scoperto che ci sono grandi differenze tra i paesi e sono fortemente correlate con la #cultura e l'#economia. Ad esempio, i partecipanti di culture collettiviste come Cina e Giappone hanno meno probabilità di risparmiare i giovani rispetto ai vecchi, forse, ipotizzano i ricercatori, a causa di una maggiore enfasi sul rispetto degli anziani.


Lo studio, sicuramente fornirà chiavi di letture differenti, ma è sicuro che occorre regolamentare l'utilizzo degli algoritmi di #AI che a breve ritroveremo sulle nostre strade.


#redhotcyber #cybersecurity #etica #artificialintelligence #ia #ai


https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2018/10/24/139313/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/amp/

Iscriviti al canale Youtube

unnamed.png

Red Hot Cyber: conosci il rischio per starne lontano

Per richieste di supporto scrivi a: redhotcyber@hotmail.com

  • YouTube Icona sociale
  • Facebook Icona sociale
  • Twitter Icon sociale
  • LinkedIn Icona sociale
  • Instagram Icona sociale
  • Tumblr Icona sociale
This site was designed with the
.com
website builder. Create your website today.
Start Now