Concordo con feather.
A me piacciono moltissimo gli scenari apocalittici ma, in caso, dubito sarà per skynet
Ora un cortocircuito, l'ho chiesto a Gemini:
Ecco i principali scienziati e pensatori che hanno lanciato l'allarme:
1. Geoffrey Hinton
Dopo una vita dedicata a costruire le basi dell'IA moderna, Hinton ha espresso il timore che i sistemi digitali possano imparare molto meglio e più velocemente degli esseri umani.
Il rischio: Teme che l'IA possa manipolare le persone o prendere il controllo se le viene dato un obiettivo che non tiene conto della sicurezza umana.
La frase chiave: "È difficile vedere come si possa impedire ai cattivi attori di usarla per cose cattive."
2. Yoshua Bengio
Insieme a Hinton, è uno dei pionieri del deep learning. Bengio è diventato uno dei firmatari più attivi di appelli per una regolamentazione globale.
Il rischio: Si concentra sulla perdita di controllo e sulla possibilità che l'IA venga utilizzata per creare armi autonome o per destabilizzare le democrazie.
3. Stephen Hawking
Sebbene fosse un fisico teorico e non un informatico, la sua autorità scientifica ha dato un peso enorme al dibattito prima della sua scomparsa.
Il rischio: Sosteneva che l'IA, una volta raggiunto un certo livello di autonomia, avrebbe potuto riprogettarsi da sola a un ritmo sempre crescente, superando l'evoluzione biologica umana.
4. Nick Bostrom
Filosofo di Oxford e autore del libro Superintelligenza, ha gettato le basi teoriche del cosiddetto "problema dell'allineamento".
Il concetto: Se creiamo un'entità molto più intelligente di noi con obiettivi anche leggermente diversi dai nostri, potremmo finire come i gorilla: una specie la cui sopravvivenza dipende dalla volontà di una specie più intelligente (gli umani).
Una panoramica dei rischi principali
Gli scienziati citati non temono necessariamente un "Terminator", ma scenari più sottili e realistici: