„Вече преживяваме края на еуфоричната фаза от въвеждането на изкуствения интелект на пазара”, казва Ева Арабел, продуктов маркетинг мениджър в Radware
(снимка: Тодор Демирджиев / за TechNews.bg)
Еуфорията около възхода на AI вече стихна и е време потребителите – индивидуални и бизнес – да мислят за ефектите, които следват от резкия възход на новата технология. На дневен ред са въпросите за доверието – за рисковете, халюцинациите, изкривяванията. В този етап потребителите са изправени пред новото предизвикателство: как да „прицелят” приложенията на AI за ефективна и полезна работа.
Този извод изкристализира от представянията, дискусиите и частните разговори на експертите по киберсигурност по време на конференцията InfoSec SEE 2025, организирана от дистрибутора КОМПЮТЪР 2000 България в „Hyatt Regency Pravets Golf & SPA Resort”.
„Вече преживяваме края на еуфоричната фаза от въвеждането на изкуствения интелект на пазара”, казва Ева Арабел, продуктов маркетинг мениджър в Radware. „Първоначално всички бяха толкова развълнувани и технологията наистина изглеждаше като да ни помага много. Сега обаче пред нас са предизвикателствата и резултатите, които изкуственият интелект може да постигне. Сега трябва да го внедрим, трябва да го обезопасим, трябва да се уверим, че не води до пробив и че не е нещо, което ще ни донесе рискове”.
„Генеративният AI, който произвежда съдържание, беше началото – и извървя дълъг път само за две години от първоначалното пускане”, сподели Мо Кашман, старши директор за EMEA в Trellix. „За по-малко от две години вече имаме множество видове компоненти на генеративния AI, които могат да създават текст, картинки, графики, видеоклипове, глас. Следователно автоматизацията на задачите стана по-ефективна. Но следващата фаза е тази на агентния AI, когато всъщност говорим за автоматизацията на вземането на решения”.
Какво може да се обърка?
Осигуряването на работното пространство за използване на AI е една от централните теми, които Кашман и Арабел виждат като предстоящо предизвикателство. „Най-напред, уверете се, че потребителите ви знаят как да използват AI”, казва Арабел.
„Най-напред, уверете се, че потребителите ви знаят как да използват AI”, посъветва Мон Кашман, старши директор за EMEA в Trellix (снимка: Тодор Демирджиев / за TechNews.bg)
„Ако имате екип от експерти, които искате да използват изкуствения интелект, ще се надявате те да го използват правилно. Едва ли ще искате да седят и да повтарят един и същи промпт отново и отново и да не успеят да направят нищо, а накрая да се върнат към старите си начини на работа, просто защото това си знаят”, коментира Ева Арабел. „Ако не направите внедряването правилно, това може да удължи процесите ви, вместо да ги направи по-ефективни”.
Във времена, когато сме свидетели на движението на автономни коли и „разум” на автоматизацията в собствения ни дом, опазването на данните ще бъде друго голямо предизвикателство.
„Ето, че вече много хора по света имат умни измервателни уреди за потреблението на енергия”, казва Дирк Шрейдър, вицепрезидент изследвания в областта на сигурността в Netwrix. „Какво ще значи това за киберсигурността? Проблемите с киберсигурността започват с предаването на данни от индивидуалния интелигентен измервателен уред към централното устройство за регистриране. Става въпрос за централно устройство за регистриране, което използва изкуствен интелект. Нима то нe може бъде измамено?”
Халюцинациите на AI са следващата голяма задача, чието решение все още се търси. „Хората ни питат за точността и достоверността. Питат ни: какво правите за халюцинациите на AI? Това е нещо, което се случва. Как можем да знаем, да бъдем сигурни, че можем да вярваме на AI, когато ни казва нещо”, обяснява Ева Арабел.
Изглежда, че в момента сме в състояние на търсене, на люшкане между доверие и недоверие, единодушни са специалистите на InfoSec SEE 2015. Според представителя на Radware, отговорът на проблема е в „екстремното“ тестване на разработените AI системи.
Проверката на качеството на данните е друг фактор, но заедно с това „организациите трябва да възприемат и многопластов подход към осигуряването на качеството на AI”, казва Михал Островски. „Това включва внедряване на модели с „човешко участие по средата“, при които експертите валидират критичните решения, използват обясними техники на AI, за да разберат как той стига до заключенията си, и установяват строги механизми за одит, за да наблюдават поведението на AI във времето“. Прозрачността, отчетността и непрекъснатото валидиране са ключови стълбове за изграждане на доверие в AI.
„Генеративният изкуствен интелект може да се използва за ежедневни задачи като анализ на ниво 1, сортиране на сигнали и приоритизиране на корекциите. Но надзираването от страна на живия човек остава потребно“, категоричен е и Майк Харт, ръководител на Google Cloud Security CEE/Алпи в Google. Човешката намеса все пак трябва да се използва за по-сложен анализ на заплахите и търсене на заплахи.
Въпросът за изкривяванията придобива още по-голяма острота, когато става дума за AI агентите – онези AI системи, които ще бъдат натоварени със задачата да вземат решения.
Отравянето на данните е другият голям казус на масата. „Как можем да сме сигурни, че данните не са отровени и решенията, които AI ще вземе, са повлияни негативно – от някой, който ни атакува и е изследвал нашата информация, а след това я е „отровил” – коментира Мишел Барбиеро, регионален търговски директор за източна Европа в Cynet.
„Аз бих казал, че следващото предизвикателство, с което може да се сблъскаме, е кой ще подсигурява изкуствения интелект, кой ще се грижи за неговата киберзащита? Защото в момента ние разчитаме на изкуствения интелект на сляпо. Доверяваме му се, защото знаем, че пулът с данни, който му предоставяме, контекстуализацията, която предоставяме, са надеждни. Но дали винаги ще е така?”, пита риторично Барбиеро.
Източник: TechNews.bg
Follow us to learn more
CONTACT US
Let’s walk through the journey of digital transformation together.