AI spiegabile versus AI interpretabile: che cosa sono, come funzionano, casi d’uso e strumenti
Description
Tutti gli algoritmi dovrebbero essere trasparenti, ma così non è. Secondo gli studiosi la linea di demarcazione tra intelligenza artificiale spiegabile e interpretabile è rappresentata dalla user interface. Indipendentemente dal livello di esperienza degli utenti e dalla loro professione (data science, sviluppatori, business line), l’interpretabilità permette di comprendere i modelli di intelligenza artificiale in modo semplice e facendo questo aiuta a ridurre la diffidenza nei confronti dell’automazione...
Non solo leggi per gli umani: l’autonomia decisionale delle macchine richiede una regolamentazione dell’AI che parli direttamente alla tecnologia. Dal nuovo report ENISA allo strumento della privacy by design, i passi verso una governance multilaterale per l’intelligenza artificiale
Published 06/22/21
L’Osservatorio Agenda Digitale del Politecnico di Milano ha condotto un censimento delle principali iniziative internazionali con l’obiettivo di mappare l’ecosistema delle applicazioni di intelligenza artificiale sviluppate in ambito pubblico. Ecco cosa è emerso.
Published 06/08/21