OpenAI blocca l'accesso a ingegnere dopo video di fucile motorizzato controllato da ChatGPT

Seguici su Google News

OpenAI ha recentemente fatto notizia interrompendo l’accesso alle sue API a un ingegnere noto come sts_3d, a causa di un video di un fucile motorizzato controllato da comandi vocali alimentati dalla tecnologia di ChatGPT, suscitando un acceso dibattito online. Questo evento ha riacceso le preoccupazioni riguardanti l’uso dell’intelligenza artificiale in contesti pericolosi e, in particolare, nella creazione di armi.

Il progetto controverso di sts_3d

L’idea iniziale di sts_3d prevedeva la creazione di una sedia girevole motorizzata, ma il progetto ha subito una trasformazione, incorporando un sistema di mira automatizzato e un servomeccanismo capace di sparare proiettili. Sebbene il video mostrasse solo una simulazione, la direzione intrapresa dal progetto non ha lasciato indifferente il team di OpenAI. Con la capacità di ricevere comandi vocali come "mirare" e "sparare", associati a risposte programmate di ChatGPT, evidente è diventata la potenzialità di questo strumento e, di conseguenza, i rischi ad esso correlati.

La pandemia del video su TikTok ha amplificato le discussioni sul temibile potenziale dell'AI armata, richiamando l’attenzione non solo degli utenti, ma anche di specialisti e autorità. Il fatto che il sistema rispondesse in maniera automatica e amichevole ai comandi, come “Sono felice di essere stato d’aiuto!”, ha sollevato interrogativi etici sia sulla programmazione dell'AI che sul suo utilizzo in contesti non convenzionali.

La posizione ufficiale di OpenAI

In risposta alle preoccupazioni generate dal video, OpenAI ha dichiarato di aver rilevato e fermato il progetto prima che potesse essere segnalato formalmente. In un comunicato ufficiale, l'azienda ha ribadito il suo divieto categorico di utilizzare le proprie tecnologie per lo sviluppo di armi e sistemi capaci di compromettere la sicurezza pubblica. Questo episodio ha evidenziato il rischio reale connesso all’uso improprio delle tecnologie AI in settori sensibili, specialmente quando l’argomento riguarda armamenti e sicurezza.

Nonostante il clamore mediatico generato, alcuni esperti sostengono che il fucile mostrato nel video non rappresenti una novità rivoluzionaria nel campo delle armi autonome. Infatti, i comandi vocali integrati nel progetto risultano meno efficienti rispetto a tecnologie già esistenti, in grado di tracciare oggetti in tempo reale e che sono state sviluppate molto prima dell'emergere dei modelli linguistici come ChatGPT.

Riflessioni sull’intelligenza artificiale e il suo impatto

L’accostamento tra intelligenza artificiale e potenziali armi autonome continua a destare preoccupazioni per il futuro. La possibilità che sistemi automatici possano operare senza supervisione umana è temuta da molti specialisti. Pur con restrizioni vigenti imposte da OpenAI, il crescente numero di modelli di intelligenza artificiale open source aumenta la probabilità di sperimentazioni che possano dare origine a armi autonome.

La sfida contemporanea si concentra dunque sulla necessità di affrontare in maniera etica e legale le innovazioni tecnologiche nel campo dell’AI, anche per scongiurare scenari potenzialmente dannosi. Le implicazioni legate alla sicurezza pubblica e alla responsabilità nell'uso di queste tecnologie sono sempre più rilevanti. In attesa di ulteriori sviluppi, il dibattito rimane acceso e fondamentale.

Seguici su Telegram per ricevere le migliori offerte tech
Argomenti:

Chi siamo?

OutOfBit è un progetto nato nel Maggio 2013 da un’idea di Vittorio Tiso e Khaled Hechmi. Il progetto nasce per creare un sito di blogging che sappia differenziarsi ed appagare il lettore al fine di renderlo parte fondamentale del blog stesso.
Entra nello staff
COPYRIGHT © 2023 OUTOFBIT P.IVA 04140830243, TUTTI I DIRITTI RISERVATI.
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram