Размер на шрифта
Българско национално радио © 2025 Всички права са запазени

Приближават ли ни AI-оръжията към Апокалипсиса?

| Интервю
Снимка: БТА

"Системи, които използват изкуствен интелект за установяване на военни мишени, се използват в Украйна и в Близкия изток, редица държави пристъпват към въоръжаване на армиите си с такива приложения. Това поражда въпроса доколко би било допустимо да се разреши на машините да взимат военни решения."

Това е един от аргументите на Бюлетина на ядрените учени - организация, създадена през 1945 година от Айнщайн и негови колеги от проекта "Манхатън" - да сверят миналата седмица с една секунда напред символичния Часовник на Страшния съд. Той отмерва вече само 89 секунди до полунощ, или до Апокалипсиса.

Препятствията пред всеунищожителен ядрен конфликт намаляват, климатичните промени имат все по-ясни и разрушителни последствия, заплахата от смъртоносни биологични зарази се увеличава, предупреждават още учените в Бюлетина.

Публично изтъкваните рискове от светкавичното технологично развитие в последните години най-често са свързани с разпространението на дезинформация и все още неясната перспектива скоро да произведем машини със собствен разум и воля. Такива засега няма, но компютърно опосредстваните човешки решения са достатъчно притеснителни. Особено ако изкуствен интелект бъде вграден в оръжейни системи.

Мишел Флорной, бивш високопоставен служител в министерството на отбраната на САЩ, описва в статия за "Форин Полиси" следната демонстрация от 2002 година. Малък безпилотен апарат, управляван от изкуствен интелект, е пуснат от войник във вражеска сграда. Изцяло разчитайки на сензорите си, машината прелита през стаите и праща план на постройката и точното местоположение на хората в нея, за да насочи изчакващия отряд.

От тази демонстрация са минали повече от 20 години, а технологиите насочват армиите по много нови начини.

Самата Флорной описва някои от вече внедрените от Пентагона възможности на изкуствения интелект.

"Най-напред имаме много умно взимане на решения за разпределение на ресурсите и преценка на краткотрайните и дълготрайни ефекти от определено решение за бюджета. Втори пример е работата с оперативни данни от оръжейните системи - използваме изкуствения интелект, за да разберем кога определена част от устройството може да спре да работи. Това оптимизира парите за поддръжка, премахва нуждата от излишна профилактика и едновременно с това предотвратява катастрофални повреди. Това вече ни спестява огромни средства.

Третият пример е изпреварващото разузнаване. Използваме изкуствения интелект, за да анализира големи количества данни и да разпознае поведенчески модели, в чието изследване да се задълбочим. Това означава, че виждаме признаците за предстоящо събитие. На практика такова събитие беше нахлуването в Украйна, друг пример са движенията на космически апарати на наши съперници. Системата дава повече време за реакция на взимащите решения. Тя не заменя човешката преценка, а я улеснява". 

И още - според Флорной, AI-системи вече могат да предвиждат поведението на вражески лидери или пък да подпомогнат сигурността на военните компютърни мрежи при кибератаки като пренасочат контрола над тях.

Както във всяка друга сфера на живота, компютърът е съветник и опосредства определени човешки действия. Но действията си остават човешки. Няма изглед към дистопичните картини на стрелящи роботи, поне засега.

Внедряването на изкуствения интелект във въоръжението е една от причините от Бюлетина на ядрените учени - организация, занимаваща се със заплахите за човешкото съществуване, символично да определят Апокалипсиса за секунда по-близък".

Тази седмица разговарях с един от авторите на тази оценка - д-р Хърбърт Лин от университета "Станфорд", който има десетилетен опит в изследването на връзката между киберпространството и отбраната. Разговорът ни съдържа доста въпроси без отговор и няколко констатации.

"В момента изкуствен интелект се използва в Газа, за да предлага мишени за военни нападения. Говорим за живи хора, които системата идентифицира като легитимна военна цел за израелските сили. Те използват големи бази данни, технологии за разпознаване на лица и други методи. Какви обаче са критериите, по които някой бива определен за мишена? Това, което също буди притеснение е дали човекът, който взима финалното решение, ще приеме сляпо предложението на машината, смятайки че то е правилно по подразбиране".

Миналата година журналистическо разследване, в което се включи и британският в. "Гардиън", стигна до информацията, че в Газа тази човешка оторизация отнема средно 20 секунди. Списание "Тайм" описва три приложения, използвани от израелската армия - едно от тях маркира сгради, в които е възможно да има присъствие на Хамас. Второто идентифицира членове на групировката, от командири до най-обикновени бойци. Третото проследява движението на вече набелязаните бъдещи жертви, като достигането на мястото, смятано за техен дом, е последното потвърждение за самоличността им. Следва удар, а на мястото е много вероятно да се намира и семейството на човека, набелязан за цел от машината.

Контрааргументът на израелската страна е, че разузнавателни данни за нечие местоположение се ползват във военни конфликти много преди този в Газа, както и че новите системи основават преценката си на много повече данни и потвърждения, отколкото са били нужни за военна бомбардировка в миналото. Но израелците не отричат, че човешката проверка на машинната преценка отнема 20 секунди. Удари по жилищни постройки, в които се намират членове на "Хамас," са най-голямата причина за огромните цивилни жертви в ивицата.

Жестокостта на описаната ситуация се предпоставя и от гъстотата на населението на малка площ там. При по-малки противоречия, изкуствен интелект се използва за набелязване на мишени и в Украйна. На разположение на силите на Киев са продуктите на американската компания "Палантир", чието лицево разпознаване използва данни от дронове, сателити, класифицирана информация и, разбира се, споделеното от всички нас в интернет. Освен това те помагат за засичането на маневри на руска военна техника.

Притеснителна е възможната следваща технологична стъпка:

"Използването на компютри за разпознаване на опасност вече е довело до това машината да предлага и определя мишени. Защо направо не й дадем да натисне спусъка?"

Хърб Лин изтъква, че автономното оръжие отдавна е технологично постижимо, но предвид възможните грешки при идентификацията подобна система ще е толкова ненадеждна, че наистина би убила прекалено много невинни хора.

"Това води до въпроса - кога една система ще е достатъчно добра, за да й се доверим за взимането и изпълняването на такова решение? И това вече е политически въпрос. Защото всъщност питаме колко невинни жертви са допустими за постигането на военна цел. И тук, за съжаление, има различни виждания".

В Бюлетина на ядрените учени, както споменахме, се занимават със заплахите за съществуването на човечеството. А тази, която е породила създаването му преди 70 години, инициирано от хора като Алберт Айнщайн и Робърт Опенхаймер, е атомната бомба. Днес е логично да се запитаме каква е възможността машини да управляват ядрения арсенал? 

"Доколкото знаем, това все още не се е случило в Западния свят. Т.е. - американските, британски и френски ядрени оръжия са под постоянен човешки контрол и няма компютърна система, която може да ги изстреля. Руснаците твърдят същото, но са описвали възможността главнокомандващият - президентът, да издаде следната заповед. Ако той бъде убит при нападение срещу страната, а военните или наследникът му не отменят заповедта своевременно, ядрено оръжие да бъде изстреляно от автоматизирана система. Целта е врагът да не може да предотврати руски ядрен отговор като обезглави командването. И те са разработили такава защита.

Смятаме ли това за автоматизирана система? Един ще ти каже - да, защото компютърът на практика взима решението за изстрелването. Друг ще ти каже - не, защото човек трябва да я включи. Оставям на вас да ми кажете дали в този случай компютър ще изстреля ядрено оръжие. В момента за такова изстрелване са нужни кодове за авторизация, които позволяват достъп до някакъв превключвател. Той изпраща електрически сигнал по някакво реле и почти със сигурност сигналът стига до компютър, който активира ракетата. Но ние няма да кажем, че компютърът извършва ядрена атака. Въпросът е колко отдалечен трябва да е човекът от решението, за да го наречем автоматизирано".

Хърб Лин продължава с въпросите - ако изкуствен интелект обработва данните от сателитните системи за ранно известяване при вражеско ракетно нападение, доколко е намесен във възможния отговор? Иначе д-р Лин не познава западни военни, според които е добра идея да дадеш ядрено оръжие на компютър.

По какъв начин Китай и Русия внедряват свои разработки на изкуствен интелект във въоръжението си също е въпрос без достатъчно ясен отговор. Западът се смята за лидер в тази сфера, но друга насока дадоха възможностите на китайския езиков модел "DeepSeek".

"Това в бизнеса се нарича "бързо последване". Те са ползвали западни чипове, копирали са определен метод и постигат добри резултати за по-малко пари. Не съм чул "DeepSeek" да има по-добри възможности от западните езикови модели, просто постигането на тези възможности е било по-евтино. Сега и ние можем да постигаме също толкова добри резултати за по-малко пари. Всяка технология следва този път на развитие, първоначално е скъпа, после става по-достъпна".

Казусът "DeepSeek" ни насочва към най-обоснованите притеснения от развитието на изкуствения интелект - нарастващите възможности на езикови модели и други приложения, които лесно създават заблуждаващо съдържание и също толкова лесно спомагат за светкавичното му разпространение. И тук следва въпросът за регулациите.

Европейският съюз се опита вземе водещата роля в това поле и миналата година представи общ закон за изкуствения интелект, който наложи маркиране на дигитално генерирано съдържание. Предишният американски президент Джо Байдън също се опита да наложи някакви правила. Нищо от това до момента не е спряло разпространението на компютърно генерирани фалшиви новини, снимки и видеоклипове. Регулациите не могат да тичат заедно с развитието.

Каква е перспективата на отговорните за този прогрес? Обяснява Дженсън Хуанг - основател и изпълнителен директор на "NVidia" - компанията, чийто чипове имат основна роля в напредъка на езиковите модели.

"Поставянето на предпазни прегради изисква технология, фината настройка изисква технология, ценностното възпитание на изкуствения интелект изисква технология, безопасността изисква технология. Причината самолетните полети да са толкова безопасни е, че автопилотът се съобразява с много на брой системи за сигурност, отчитащи различните опасности. По отношение на изкуствения интелект аз имам нужда такива системи да бъдат възможно най-бързо разработени. Нужно ни е много по-бързо развитие на технологиите за киберсигурност, които да обезопасяват изкуствения интелект и да ни предпазват от възможностите му".   

И така - не ни регулирайте, а ни позволете да се развиваме, за да изработим и предпазните механизми. Какво обаче ще се случи през това време?

Тази седмица медиите установиха, че "Алфабет", компанията-майка на "Гугъл", която също инвестира милиарди в AI-разработки, е премахнала от принципите си те да не бъдат използвани за нараняване на човешки същества.

Започнахме с бившия заместник-ръководител на Пентагона Мишел Форной и статията й за "Форин полиси". Тя съдържа важен аргумент.

"Спирането на американското развитие в сферата на изкуствения интелект е невъзможно - математическите основи са универсални, човешките умения за създаването на AI-модели са широко търсени и се развиват. Двигателите на това развитие - както човешката съзидателност, така и търговските ползи - са много мощни. Да се опитваме да спрем прогреса ще е грешка. Китай работи здраво, за да изпревари Съединените щати в изкуствения интелект, особено във военните му приложения. Ако успее, Китай ще има много по-мощна армия, имаща потенциала да увеличи честотата и ефектът от нейните операции, отвъд американските възможности за противодействие".

В незначителния миманс на геополитически противопоставяния и икономически интереси стоят въпросите без отговор на Хърб Лин. Той изтъква, че на всеки американски военен кораб има система за близка отбрана, при чийто автоматичен режим компютърът разпознава приближаващи вражески ракети и ги елиминира. Натиска спусъка и никой не смята това за проблем. За финал ето още една дилема:

"Знам, че към мен приближава вражеска танкова група, но не знам кога точно ще представлява пряка заплаха. Затова пускам във въздуха оръжия, настроени да разпознаят приближаващи танкове и да започнат да стрелят по тях. Това може да се приеме за автоматизирана система, но аз ще взема решението да я включа. Ако злоупотребя с нея и я активирам срещу цивилни мишени, то аз ще бъда съден за военно престъпление. Но добре ли е, че изобщо имам технологичната възможност да го направя?"
По публикацията работи: Мария Сивкова - Илиева

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Палестинци се събират около кратер от израелски въздушен удар по бежански палатков лагер в град Газа, 28 юни 2025 г.

Израел нареди евакуация в Северна Газа, а Тръмп призова да бъде сложен край на войната в анклава

Израелската армия нареди на палестинците да се евакуират от райони в северната част на Ивицата Газа в момент, когато американският президент Доналд Тръмп призовава за слагане на край на войната в палестинския анклав на фона на нови усилия да посредничи за прекратяване на огъня, предаде Ройтерс. "Сключете сделка за Газа, върнете заложниците", написа..

публикувано на 29.06.25 в 17:48
Кирил Маричков

Откриват паметната плоча на Кирил Маричков на фасадата на дома му в София на 30 юни

Паметната плоча на основателя на "Щурците" Кирил Маричков ще бъде открита на фасадата на дома му в София на 30 юни, понеделник, съобщиха от БТА като се позоваха на Столичния общински съвет. Инициативата е на д-р Ваня Тагарева, заместник-председател на Столичния общински съвет. Организатор на церемонията е семейството на Кирил Маричков, който..

публикувано на 29.06.25 в 17:27
Президентът Володимир Зеленски подписа указ

Зеленски изтегля Украйна от Отавската конвенция за забрана на противопехотните мини

Президентът на Украйна Володимир Зеленски подписа указ, с който изтегля страна от Отавската конвенция за забрана на противопехотните мини, според документ, публикуван на неговия уебсайт, предаде Франс прес. "С настоящия указ... влиза в сила решението на Съвета за национална сигурност и отбрана на Украйна от 29 юни 2025 г. за изтеглянето на..

публикувано на 29.06.25 в 17:01
Иранският президент Масуд Пезешкиан (вляво) и ген. Абдолрахим Мусави на военен парад в покрайнините на Техеран, архив, септември 2024 г.

Иран заяви, че има "сериозни съмнения", че Израел ще спазва прекратяването на огъня

Иран заяви, че има "сериозни съмнения" относно спазването от страна на Израел на прекратяването на огъня, влязло в сила на 24 юни след 12-дневна война между двете страни, предаде АФП. Израел започна военни действия срещу Иран на 13 юни с бомбардировки, при които загинаха ирански висши военни и учени, свързани с иранската ядрена програма.  Израел..

публикувано на 29.06.25 в 16:57

До 50 000 евро глоба за поливане на частни градини с обществена вода в Германия

Германия забрани поливането на частни градини с обществена вода заради рекордните суши в страната. Нарушенията могат да струват до 50 000 евро глоба. Пролетта на 2025 г. е една от най-сухите в Германия, откакто се водят метеорологични наблюдения. Между февруари и средата на април валежите са рекордно ниски, а нивото на подпочвените води е..

публикувано на 29.06.25 в 16:45
Лидерът на ГЕРБ Бойко Борисов говори пред Младежката организация на партията - 29 юни 2025 г.

Борисов нарече Радев "много умел играч", който ще "вземе" електората на "Възраждане"

Лидерът на ГЕРБ Бойко Борисов заяви, че сега се прави последен опит България да бъде спряна по пътя към еврозоната. Той коментира казуса пред Общото събрание на Младежката организация на ГЕРБ, която се провежда днес в София: Борисов: Ако ДПС-НН не застане до ГЕРБ, няма да има правителство и еврозона Протестиращите срещу еврото настояха за..

публикувано на 29.06.25 в 16:26

Пробите, взети заради мъртвата риба в Марица, ще са готови в средата на юли

Залпово замърсяване доведе до измирането на голямо количество риба в река Марица край Пловдив.  Три институции са извършили необходимите проверки, но резултати от взетите водни проби още няма. Тройна проверка търси причината за мъртва риба в река Марица  Информацията допълва Димитър Владимиров от  Радио Пловдив. Сигналът за мъртвата риба..

публикувано на 29.06.25 в 16:03