Безпилотни самолети, превърнати в ракети, фалшиви видеоклипове, манипулиращи общественото мнение и автоматизирано хакерство са само три от заплахите от изкуствен интелект, попаднал в неправилните ръце, обявиха експерти.
Доклад под наслов "Злонамерено използване на изкуствен интелект" предупреждава, че изкуственият интелект e готов за използване от изолирани и авторитарни режими, престъпници и терористи.
Онези, които проектират системи за изкуствен интелект, трябва да сторят повече, за да смекчат евентуални злоупотреби с тяхната технология, подчертават авторите на доклада.
А правителствата трябва да обмислят нови закони.
Докладът призовава за:
- Политиците и техническите изследователи да работят заедно за разбирането и подготовката за злонамерено използване на изкуствен интелект;
- Осъзнаване, че въпреки че изкуственият интелект има множество положителни приложения, това е технология с двойна употреба и изследователите и инженерите на изкуствен интелект трябва да са наясно и да са проактивни за възможността за злоупотреба;
- Активно разширяване на обхвата на заинтересованите страни, ангажирани с предотвратяването и смекчаването на опасностите от злоумишлено използване на изкуствен интелект.
Говорейки пред БиБиСи, Шахар Авин от Университета в Кеймбридж обясни, че докладът се съсредоточава върху области от изкуствения интелект, които са налични сега или ще бъдат на разположение в рамките на 5 години, вместо да се вглежда в далечното бъдеще.
Особено тревожна е новата област на машинното учене, където изкуствените интелекти са обучавани до свръхчовешки нива на интелигентност без човешки примери или напътствия.
Шахар Авин е очертал някои от сценариите, при които изкуственият интелект може да се превърне в "зъл" в близко бъдеще:
- Технологии като AlphaGo - изкуствен интелект, разработен от компанията DeepMind на Google и който може да надхитри хората, играещи логическата игра Го - могат да бъдат използвани от хакери.
- Злонамерено лице би могло да купи дрон и да го обучи със софтуер за разпознаване на лица, за да убие определен човек.
- Ботове могат да бъдат автоматизирани или "фалшиви", изглеждащи като на живо заснети видеоклипове за политическа манипулация.
- Хакери биха могли да използват синтезирането на речи, за да се представят за определени хора.