Attualità
Intelligenza Artificiale: ecco perché serve pausa di riflessione
Una lettera aperta, firmata da oltre 1.300 tra accademici, ricercatori, esperti e manager, tra cui Elon Musk e il co-fondatore di Apple, Steve Wozniak, sottolineano l’esigenza a mettere fine a una corsa “senza controllo” verso lo sviluppo di software di intelligenza artificiale come ChatGpt
Serve una pausa di riflessione sullo sviluppo dell’Intelligenza Artificiale. Non nel suo complesso, ma nei confronti di quei modelli di Intelligenza Artificiale avanzati come ChatGpt, il cui sviluppo appare fuori controllo. A dirlo sono accademici, ricercatori, esperti e manager di aziende, che hanno firmato una lettera aperta pubblicata da Future of Life Institute e riportata dal Financial Times chiedendo una pausa allo sviluppo dell’intelligenza artificiale di “almeno 6 mesi”. I firmatari sono oltre 1.300 e potrebbero essere molto di più, se il modulo online non fosse al momento sospeso a causa dell’elevata domanda di sottoscrizioni. Tra i firmatari di primo piano anche il co-fondatore di Apple, Steve Wozniak, ed Elon Musk, il vulcanico imprenditore a capo di Twitter e tra i fondatori di Tesla, SpaceX e OpenAI.
Perché sospendere lo sviluppo dell’Intelligenza Artificiale
Nella lettera si sottolinea come sistemi di A.I. dotati di un’intelligenza competitiva con quella umana “possono comportare rischi profondi per la società e l’umanità” e dovrebbero. Il suo sviluppo potrebbe comportare “un cambiamento profondo nella storia della vita sulla Terra”, per questo “dovrebbe essere pianificata e gestita con cura e risorse adeguate”. Cosa che non sta avvenendo. Per questo si chiede una pausa di almeno 6 mesi da questa corsa “fuori controllo”, che sta portando a sviluppare menti digitali sempre più potenti che nessuno, “nemmeno i loro creatori”, è in grado di comprendere, prevedere o controllare in modo affidabile.
Non andare oltre Gpt-4
Nella lettera si chiede la temporanea sospensione nell’addestramento di sistemi di A.I. più potenti del GPT-4. Secondo i firmatari della lettera, questi sistemi di Intelligenza Artificiale dovrebbero essere sviluppati “solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili”. Nella lettera si fa riferimento a una dichiarazione di OpenAi – la società dietro l’Intelligenza Artificiale ChatGpt – secondo cui si afferma che a un certo punto dello sviluppo dell’A.I. sarà necessario “ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli”. Secondo i firmatari della lettera quel momento è arrivato.