#59 - Intelligenza Artificiale e Legge: a che punto siamo?
7 giu 2021 ·
19 min. 12 sec.
Scarica e ascolta ovunque
Scarica i tuoi episodi preferiti e goditi l'ascolto, ovunque tu sia! Iscriviti o accedi ora per ascoltare offline.
Descrizione
Facciamo un salto indietro di un paio d’anni, per introdurre questa email, più precisamente nel 2018. Ecco, in quell’anno è avvenuto il primo omicidio stradale a causa di un’autovettura autonoma....
mostra di più
Facciamo un salto indietro di un paio d’anni, per introdurre questa email, più precisamente nel 2018.
Ecco, in quell’anno è avvenuto il primo omicidio stradale a causa di un’autovettura autonoma.
Una signora in bicicletta stava attraversando una strada ad alta percorribilità di notte mentre un’auto di Uber stava eseguendo un giro di test.
Il passeggero di sicurezza stava guardando il cellulare invece di controllare la strada, e così l’auto non si è fermata di fronte alla signora in bici.
Quell’incidente ha sconquassato l’opinione pubblica e i legislatori hanno cominciato a chiedersi:
“Se un’Intelligenza Artificiale commette un errore a livello legale, chi ne è responsabile?”
Nel 2020 è stato giudicato colpevole il passeggero di sicurezza, poiché aveva il compito di fermare l’auto in situazione di pericolo - cosa che non ha fatto.
Ma in questo caso c’era un essere umano che doveva gestire la situazione, perciò la colpa è stata data direttamente a lui.
Quindi, cosa dovrebbe succedere se fosse l’Intelligenza Artificiale a commettere un errore?
La colpa sarebbe dell'Intelligenza Artificiale? Del creatore? Di chi ha acquistato la soluzione?
Ne parliamo in questa nuova puntata del podcast!
(E parliamo anche di come evitare di acquistare una soluzione di Intelligenza Artificiale che potrebbe crearti più danni che benefici a livello legale!)
Per ora buon ascolto e ricordati che ci puoi ascoltare anche su:
►GOOGLE PODCAST: https://bit.ly/32TDZei
►SPOTIFY: https://spoti.fi/2D3ttGF
►APPLE PODCAST: https://apple.co/2CBsSfz
Oppure puoi vederci su:
► YOUTUBE: https://www.youtube.com/channel/UC7t_EfzzusBj3y_GauT_JCg
#artificialintelligence #industry40 #machinelearning #deeplearning #bluetensor #intelligenzaartificiale
mostra meno
Ecco, in quell’anno è avvenuto il primo omicidio stradale a causa di un’autovettura autonoma.
Una signora in bicicletta stava attraversando una strada ad alta percorribilità di notte mentre un’auto di Uber stava eseguendo un giro di test.
Il passeggero di sicurezza stava guardando il cellulare invece di controllare la strada, e così l’auto non si è fermata di fronte alla signora in bici.
Quell’incidente ha sconquassato l’opinione pubblica e i legislatori hanno cominciato a chiedersi:
“Se un’Intelligenza Artificiale commette un errore a livello legale, chi ne è responsabile?”
Nel 2020 è stato giudicato colpevole il passeggero di sicurezza, poiché aveva il compito di fermare l’auto in situazione di pericolo - cosa che non ha fatto.
Ma in questo caso c’era un essere umano che doveva gestire la situazione, perciò la colpa è stata data direttamente a lui.
Quindi, cosa dovrebbe succedere se fosse l’Intelligenza Artificiale a commettere un errore?
La colpa sarebbe dell'Intelligenza Artificiale? Del creatore? Di chi ha acquistato la soluzione?
Ne parliamo in questa nuova puntata del podcast!
(E parliamo anche di come evitare di acquistare una soluzione di Intelligenza Artificiale che potrebbe crearti più danni che benefici a livello legale!)
Per ora buon ascolto e ricordati che ci puoi ascoltare anche su:
►GOOGLE PODCAST: https://bit.ly/32TDZei
►SPOTIFY: https://spoti.fi/2D3ttGF
►APPLE PODCAST: https://apple.co/2CBsSfz
Oppure puoi vederci su:
► YOUTUBE: https://www.youtube.com/channel/UC7t_EfzzusBj3y_GauT_JCg
#artificialintelligence #industry40 #machinelearning #deeplearning #bluetensor #intelligenzaartificiale
Informazioni
Autore | Bluetensor |
Organizzazione | Bluetensor |
Sito | - |
Tag |
Copyright 2024 - Spreaker Inc. an iHeartMedia Company