Microsoft ha rilasciato uno strumento open source creato per aiutare gli sviluppatori a valutare la sicurezza dei sistemi di intelligenza artificiale su cui stanno lavorando. Si chiama progetto Counterfit ed è ora disponibile su GitHub.
La stessa azienda di Redmond ha già utilizzato Counterfit per testare i propri modelli di intelligenza artificiale, nel team rosso dell’azienda. Inoltre, anche altre sezioni di Microsoft stanno esplorando l’utilizzo dello strumento nello sviluppo dell’IA.
Microsoft simula attacchi informatici con Counterfit
Secondo le rivelazioni di Microsoft su Github, Counterfit ha uno strumento da riga di comando e un livello di automazione generico per valutare la sicurezza dei sistemi di apprendimento automatico.
Ciò consente agli sviluppatori di simulare attacchi informatici contro i sistemi di intelligenza artificiale per testare la sicurezza. Chiunque può scaricare lo strumento e distribuirlo tramite Azure Shell, per eseguirlo nel browser o localmente in un ambiente Anaconda Python.
“Il nostro strumento rende gli algoritmi di attacco pubblicati accessibili alla comunità della sicurezza e aiuta a fornire un’interfaccia estendibile da cui creare, gestire e lanciare attacchi ai modelli di intelligenza artificiale”, ha affermato Microsoft.
Lo strumento viene fornito precaricato con algoritmi di attacco di esempio. Inoltre, i professionisti della sicurezza possono anche utilizzare il motore di scripting cmd2 integrato per collegarsi a Counterfit da altri strumenti offensivi esistenti a scopo di test.
Secondo ITPro, Microsoft ha sviluppato lo strumento per la necessità di valutare i propri sistemi per le vulnerabilità. Counterfit è nato come script di attacco scritti per attaccare i singoli modelli di intelligenza artificiale e gradualmente si è evoluto in uno strumento di automazione per attaccare più sistemi.
L’azienda afferma di aver collaborato con molti dei suoi partner, clienti ed enti governativi per testare lo strumento con modelli di intelligenza artificiale nei loro ambienti.