Нещата са сериозни - това става ясно от думите на Джак Кларк, съосновател на компанията за изкуствен интелект и бивш директор по политиката на OpenAI, компанията зад ChatGPT. Пред членовете на Съвета за сигурност той очерта ситуацията така – за 10 години напредъкът е сериозен. Преди 10 години компатнията Deep Mind учила изкуствения интелект да играе стари компютърни игри като Space Invaders и Pong. Сега същите техники се използват при тренирането на AI системи, които могат да победят военни пилоти и при симулации на въздушен бой, да стабилизират процеси в плазмени и термоядрени реактори, да проектират компонентите на полупроводници от следващо поколение. При компютърното зрение се стигнало от генериране много груби пикселизирани изображения до днешните възможности за проверка на стоки на производствени линии, за анализиране на сателитни изображения и подобряване на държавната сигурност. В дъното на тезата на Джак Кларк е, че не може да се вярва на големите технологични компании, че гарантират безопасността на системи, които все още не разбираме и са склонни към "хаотично или непредсказуемо поведение":
"Не можем да оставим развитието на изкуствения интелект единствено на участниците от частния сектор. Правителствата по света трябва да се обединят, да развият държавен капацитет и да превърнат разработването на мощни системи с изкуствен интелект в общо начинание. Във всички части на обществото. Вместо да се диктува единствено от малък брой фирми, конкуриращи се една с друга на пазара."
Участниците в частния сектор разполагат със сложните компютри и големи масиви от данни и капиталови ресурси за изграждането на тези системи. Затова според Джак Кларк участниците в частния сектор ще продължат да определят развитието на тези системи. Бившият директор по политиката на OpenAI признава, че разработките вървят с ползите за хората. Но той вижда и потенциални заплахи за мира, сигурността и глобалната стабилност. "Трябва да помислим много внимателно как да гарантираме, че разработчиците на тези системи са отговорни, така че да изграждат и внедряват безопасни и надеждни системи, които не компрометират глобалната сигурност", смята Джак Кларк. Защото с тези технологии може да се злоупотребява и те са непредсказуеми. Примерът на Кларк е следният – все едно да създаваме двигател, без да разбираме науката зад вътрешното горене.
"Не мислете за изкуствения интелект като за специфична технология. А като за вид човешки труд, който може да се купува и продава със скоростта на компютър и който става все по-евтин и по-мощен с течение на времето. И както описах, това е форма на труд, която се развива от един тесен клас компании. Трябва да сме наясно с огромните политически лостове, които това предоставя. Ако можете да създадете заместител или допълнение на човешкия труд и да го продадете на света, с времето ще станете по-влиятелни. Много от предизвикателствата на политиката за ИИ изглеждат по-лесни за мислене, ако мислим за тях по този начин. Как трябва да реагират нациите по света на факта, че всеки, който има достатъчно пари и данни, сега може лесно да създаде изкуствен експерт за даден домейн, който трябва да има достъп до тази власт? Как правителствата трябва да регулират тази власт? Кои трябва да бъдат актьорите, способни да създават и продават тези така наречени експерти и какви експерти можем да позволим да бъдат създадени? Това са огромни въпроси."
Отговорът на тези въпроси е да се разработи тестване за възможности, злоупотреби и потенциални пропуски в безопасността на тези системи.
"Ако създаваме и разпределяме нови видове работници, които ще влязат в глобалната икономика, тогава е логично да искаме да можем да ги характеризираме, да оценяваме способностите им и да разбираме недостатъците им", отбелязва Джак Кларк. Затова той приветства рамката на Европейския съюз за ИИ и наскоро обявените от Китай генеративни правила за ИИ, както и стандартите на Националния институт за технологии на Съединените щати. Правителствата по света трябва да инвестират в тази област, настоява Джак Кларк.
Професор Yi Zeng, директор на Лабораторията за когнитивно разузнаване на Китайската академия на науките обясни пред Съвета за сигурност, че ООН трябва да създаде работна група, която да разгледа краткосрочните и дългосрочните предизвикателства, които ИИ поставя пред международния мир и сигурност.
"Предполага се, че изкуственият интелект трябва да помогне да решаваме проблемите, а не да създава проблеми. По-добре да използваме изкуствения интелект да взривява ядрената бомба на астероида, който заплашва Земята, отколкото да ползваме изкуствения интелект да насочва един към друг ядрени оръжия. Според мен хората винаги трябва да имат последната дума, да носят отговорност за вземането на окончателно решение относно използването на. ядрени оръжия. И вече потвърдихме, че ядрена война не може да бъде спечелена и никога не трябва да се води. Много страни обявиха свои собствени стратегии и мнения относно използването на изкуствения интелект за сигурност и управление като цяло."
Какво мислят държавите за контрола при използването на изкуствения интелект? В изказванията на членовете на Съвета за сигурност на ООН присъстваше съзнанието, че изкуственият интелект ще влияе върху решенията на този орган. Великобритания призова големите компании да работят с правителствата, за да се минимизират рисковете. Тази есен в Обединеното кралство ще има международна конференция, посветена на сигурността на изкуствения интелект. Посланикът на Китай в ООН Джан Джун каза, че никоя държава-членка не трябва да използва ИИ, за да цензурира, ограничава, репресира или лишава от власт хора. Представителят на Бразилия настоя да има бързо разработване на правила и норми за използването на автономните военни системи. И изрази притеснение, че само за часове системи с ИИ могат да създадат нови смъртоносни химически съединения, патогени и молекули. ИИ не трява да се обвързва с ядрените системи на оръжията, посочи той.
Швейцария разработва за кризисния център на ООН, подпомаган от ИИ, инструмент за анализ. В изказването си заместник-посланикът на Русия в ООН Дмитрий Полянски поясни, че в страната големите IT компании са разработили етични правила за работа. И не спести критиките към Запада, като посочи, че често алгоритми се използват за манипулация на настроенията и съдържанието.
От няколкото години съществува и платформата за дискусии, наречена "ИИ за добро", в която специалисти дискутират възможностите за прилагането му за постигане на целите за устойчиво развитие на ООН. По време на дискусията в Съвета за сигурност бяха спомената и серия други инициативи, обхващащи страните от Г7, Япония, Африка, плановете на ЕС за законодателство в областта. Но според генералният секретар на ООН Анонио Гутиериш диалогът трябва да продължи.
"Дори създателите на изкуствения интелект нямат представа докъде може да доведе техният зашеметяващ технологичен пробив. Комисия за правата на човека вече изрази тревога от доказателства, че използването му може да засили пристрастията, да засили дискриминацията и да позволи нови нива на авторитарно наблюдение. Влиянието на изкуствения интелект върху мира и сигурността вече поражда политически, правни, етични и хуманитарни опасения. Призовавам Съветът за сигурност да подходи към тази технология с чувство за неотложност, всеобхватност и с нагласата на човек, който все още се обучава. ООН ще препоръча държавите членки да разработят национални стратегии за отговорно проектиране, разработване и използване на изкуствения интелект. Стратегиите ще трябва да са съобразени с международното хуманитарно право и правата на човека. Трябва да се обсъжда вече и изработването на норми, правила и принципи относно военните приложения на изкуствения интелект. Нужна ни е глобална рамка за регулиране и укрепване на механизмите за надзор върху използването на технологии, базирани на данни, включително изкуствен интелект за целите на борбата с тероризма."
Генералният секретар на ООН Анонио Гутериш призова до 2026 г. да приключат преговорите и да е готово споразумение, което да забрани малки автономни оръжейни системи, които функционират без човешки контрол. Препоръча и общо съгласие между страните членки на ООН, че винаги ще има човешки контрол над ядреното въоръжение. И това, че то никога не би трябвало да бъде оттегляно.
"Допълнителните ответни мита на стоки от страна на Европейския съюз са опит да се вкара администрацията на президента Тръмп в някакви преговори, които традиционно се водят в такава ситуация, тоест да се анализира цялостно търговията между двата пазара , индустрия по индустрия, продукт по продукт, някакъв вид сделка на базата на взаимни отстъпки "...
Общините се оказаха най-големите инвеститори у нас . Хиляди проекти се изпълняват от бизнеса, който пък осигурява работа на много хора. Логично е при усвояването на този милиарден ресурс държавата и обществото да следят за злоупотреби. Сигнали към институциите и медиите са подавани за много общини. Кметовете, които се разследват, обаче, се броят..
Днес в 11 часа трябваше да има среща между областния управител на София Стефан Арсов и представители на Столичната община, за да бъде официално предадена документацията на парк "Врана“ и ключовете от двата входа. На 7 юли кметът Васил Терзиев предупреди областната управа, че след 10 юли затваря врати за посетители парк "Врана" и спира движението..
" Спирането в аварийната лента предвижда три вида санкции - предвижда много висока имуществена глоба от 1000 лева , отнемане на книжката за три месеца, отнемане на контролни точки". Това каза пред БНР Владимир Тодоров от Асоциацията на пострадалите при катастрофи: "Това превъзбудено обяснение, че започват да получават глоби, не е така, защото..
"Разговорът за инфлацията не трябва да остане на нивото на "Възраждане" и разговорът за приемането ни в еврозоната не трябва да се изчерпва с това, че ние сме получили дата, на която да се присъединим към еврозоната , тоест въпросите за икономическата ни политика, за това как ще се ползва държавния бюджет за правене на политики, за инвестиции и..
Паметна плоча на Съветската армия , монтирана върху фасадата на фитнес клуб в Пазарджик , провокира напрежение в общината . След проверка кметът Петър Кулински издаде заповед за премахването ѝ, тъй като е поставена без необходимото разрешение. От партия "Русофили за възраждане на отечеството“ оспориха това. Казусът ще се решава в съда . До..
"Вчерашните протести са протести, които Варна не помни от 2013 година , когато на улицата излязоха наистина хиляди хора". Това каза пред БНР Спас Спасов , кореспондент на "Дневник" от Варна: "Само че аз отдавна твърдя, че тези протести бяха абсолютно оркестрирани, за да може ГЕРБ, след като овладя Общинския съвет година по-рано, да овладее и..
В "Нощен Хоризонт" гости по темата за отпуските на учителите, как почиват през лятото учителите - това коментират Дора Терзиева - старши учител в ДГ..
Обществената поръчка за десет нови автобуса до Витоша е провалена. Явили са се двама участници, като единият е бил отстранен по формални причини...
"Вчерашните протести са протести, които Варна не помни от 2013 година , когато на улицата излязоха наистина хиляди хора". Това каза пред БНР Спас..