Британски служители предупреждават организациите за интегрирането на чатботове, управлявани от изкуствен интелект, в бизнеса, като заявяват, че изследванията все повече показват, че те могат да бъдат подмамени да изпълняват вредни задачи.
В няколко публикации в блогове, публикувани в сряда, Британският национален център за киберсигурност (NCSC) каза, че експертите все още не са се справили с потенциалните проблеми със сигурността, свързани с алгоритми, които могат да генерират взаимодействия, звучащи и като човешки - големи езикови модели или LLM.
Задвижваните от изкуствен интелект инструменти започват да се използват като чатботове, които някои предвиждат, че ще изместят не само търсенето в интернет, но и работата по обслужване на клиенти и обажданията за продажби.
NCSC каза, че това може да крие рискове, особено ако такива модели са включени в бизнес процесите на други елементи на организацията. Представители на академичната общност и изследователи многократно са намирали начини да подкопаят чатботовете, като им подават измамни команди или ги заблуждават да заобикалят собствените си вградени предпазни огради.
Например задвижван от изкуствен интелект чатбот, внедрен от банка, може да бъде подмамен да извърши неоторизирана транзакция, ако хакер структурира заявката си правилно.
"Организациите, изграждащи услуги, които използват LLM, трябва да бъдат внимателни по същия начин, по който биха били, ако използват продукт или кодова библиотека, която е в бета-версия", каза NCSC в един от своите публикации в блога, като се позовава на експериментални версии на софтуер. "Те може да не позволят на този продукт да участва в извършването на транзакции от името на клиента и да се надяваме, че няма да му се доверят напълно. Подобно внимание трябва да се прилага към LLM."
Властите по целия свят опитват да се справят с възхода на LLM като ChatGPT на OpenAI, които фирмите включват в широк набор от услуги, включително продажби и обслужване на клиенти. Последиците за сигурността от изкуствения интелект също все още са на фокус. Властите в САЩ и Канада казват, че са видели хакери да възприемат технологията.
Скорошно проучване на Reuters/Ipsos установи, че много корпоративни служители използват инструменти като ChatGPT, за да помогнат с основни задачи като изготвяне на имейли, обобщаване на документи и извършване на предварителни проучвания. Около 10% от анкетираните казаха, че шефовете им изрично са забранили външни инструменти за изкуствен интелект, докато една четвърт не знаят дали тяхната компания разрешава използването на технологията.
Оселока Обиора, главен технологичен директор във фирмата за киберсигурност RiverSafe, каза, че надпреварата за интегриране на AI в бизнес практиките ще има "катастрофални последици", ако бизнес лидерите не успеят да въведат необходимите проверки.
"Вместо да се отдават безразсъдно на най-новите тенденции в изкуствения интелект, високопоставените ръководители трябва да помислят отново", каза той. "Оценете ползите и рисковете, както и прилагането на необходимата киберзащита, за да гарантирате, че организацията е защитена."