Luciano Floridi, membro del Comitato Scientifico di IAIC filosofo, afferma che: “Non prevedo uno scenario distopico, ma…
Gaza e l’Ucraina impongono un “momento Oppenheimer” dell’Ai in guerra
L’intelligenza artificiale ha un ruolo di primo piano sia nel conflitto russo-ucraino che nella guerra tra Hamas e Israele. Ma mancano regole internazionali per limitare l’uso della tecnologia in guerra. L’analisi di Giusella Finocchiaro, professoressa ordinaria di Diritto Privato e Diritto di Internet presso l’Università di Bologna e socia fondatrice di IAIC.
È arrivato il “momento Oppenheimer” dell’intelligenza artificiale? Prendendo spunto dal recente dibattito sul film di Christopher Nolan sugli uomini che fecero la bomba atomica, gli esperti hanno cominciato a fare confronti tra i potenziali impatti di un’IA sfuggita al controllo con gli effetti distruttivi delle armi nucleari. Per ora l’analogia – illustrata bene da Alex Karp, amministratore delegato di Palantir Technologies (società di software americana specializzata in analisi di Big data per le agenzie federali e la comunità di intelligence degli Stati Uniti) in un editoriale sul New York Times – resta meramente teorica, ma i dilemmi etici di chi sviluppa le AI sono già molto simili a quelli che affrontarono, a metà degli anni Quaranta, i fisici e gli scienziati che parteciparono al Progetto Manahattan insieme a J. Robert Oppenheimer. È arrivato il “momento Oppenheimer” dell’intelligenza artificiale? Prendendo spunto dal recente dibattito sul film di Christopher Nolan sugli uomini che fecero la bomba atomica, gli esperti hanno cominciato a fare confronti tra i potenziali impatti di un’IA sfuggita al controllo con gli effetti distruttivi delle armi nucleari. Per ora l’analogia – illustrata bene da Alex Karp, amministratore delegato di Palantir Technologies (società di software americana specializzata in analisi di Big data per le agenzie federali e la comunità di intelligence degli Stati Uniti) in un editoriale sul New York Times – resta meramente teorica, ma i dilemmi etici di chi sviluppa le AI sono già molto simili a quelli che affrontarono, a metà degli anni Quaranta, i fisici e gli scienziati che parteciparono al Progetto Manahattan insieme a J. Robert Oppenheimer.
Prima il conflitto russo-ucraino e ora la guerra tra Hamas e Israele riaccendono i riflettori sul tema. Quando si tratta di attaccare, l’intelligenza artificiale ha già un ruolo importante: l’esercito ucraino, ad esempio, usa contro quello russo il TB2 Bayraktar, un drone di fabbricazione turca, che può trasportare missili anticarro, che atterra e decolla da solo grazie all’IA, ma che richiede ancora l’intervento umano per essere attivato. Insomma: serve insomma qualcuno che prema il bottone.