Изкуственият интелект (ИИ или AI) може да представлява "по-спешна" заплаха за човечеството от изменението на климата, заяви в интервю за Ройтерс пионерът в ИИ Джефри Хинтън.
Джефри Хинтън, широко известен като един от "кръстниците на AI“, наскоро обяви, че е напуснал технологичния гигант Alphabet, който е собственик на Google, след десетилетие във фирмата, като каза, че иска да говори открито за рисковете от технологията, без това да засегне бившия му работодател.
Работата на Хинтън се счита за съществена за развитието на съвременни системи за изкуствен интелект. През 1986 г. той е съавтор на основополагаща статия, която се счита за крайъгълен камък в развитието на невронните мрежи, които са в основата на технологията на ИИ. През 2018 г. той беше удостоен с наградата Тюринг като признание за неговите изследователски пробиви, напомня Ройтерс.
Но сега той е сред нарастващия брой технологични лидери, които публично изразяват загриженост относно възможната заплаха, представлявана от изкуствения интелект, ако машините постигнат по-висок интелект от хората и поемат контрола над планетата.
"Не бих искал да обезценявам изменението на климата. Не бих искал да кажа: "Не трябва да се тревожите за изменението на климата". Това също е огромен риск. Но мисля, че въпросът с ИИ може да се окаже по-спешен", каза Хинтън пред агенция Ройтерс и добави:
"С изменението на климата е много лесно да се препоръча какво трябва да направите: просто спрете да изгаряте въглерод. Ако направите това, в крайна сметка нещата ще се оправят. За ИИ обаче изобщо не е ясно какво трябва да направите".
Подкрепяната от Microsoft американска изследователска лаборатория за изкуствен интелект - OpenAI даде началото на надпреварата в технологичното въоръжаване през миналия ноември, когато направи базирания на изкуствен интелект чатбот ChatGPT достъпен за обществеността. Скоро това се превърна в най-бързо развиващото се приложение в историята, достигайки 100 милиона месечни потребители за два месеца.
През април 2023 г. изпълнителният директор на Twitter Илон Мъск се присъедини към хиляди в подписването на отворено писмо, призоваващо за шестмесечна пауза в разработването на системи, по-мощни от наскоро пуснатия от OpenAI - GPT-4. Подписалите се включват главният изпълнителен директор на Stability AI Емад Мостаке, изследователи от DeepMind, собственост на Alphabet, и други пионери на ИИ като Йошуа Бенгио и Стюарт Ръсел.
Докато Хинтън споделя загрижеността на подписалите, че изкуственият интелект може да се окаже екзистенциална заплаха за човечеството, той не е съгласен със спирането на изследванията.
"Това е напълно нереалистично. Аз съм в лагера, който смята, че това е екзистенциален риск и е достатъчно близо, че трябва да работим много усилено в момента и да влагаме много ресурси, за да разберем какво можем да направим по въпроса", каза той.
В Европейския съюз комисия от законодатели отговори на подкрепеното от Илон Мъск писмо, призовавайки президента на САЩ Джо Байдън да свика с председателя на Европейската комисия Урсула фон дер Лайен световна среща на върха относно бъдещата посока на технологията.
Миналата седмица комитетът постигна съгласие за забележителен набор от предложения, насочени към генеративния AI, който ще принуди компании като OpenAI да разкрият всички материали с авторски права, използвани за обучение на техните модели.
Междувременно Джо Байдън проведе разговори с редица лидери на компании за изкуствен интелект, включително главния изпълнителен директор на Alphabet Сундар Пичай и главния изпълнителен директор на OpenAI Сам Алтман в Белия дом, обещавайки "откровена и конструктивна дискусия" относно необходимостта компаниите да бъдат по-прозрачни относно техните системи.
"Технологичните лидери разбират най-добре това и политиците трябва да бъдат включени. Това засяга всички ни, така че всички трябва да мислим за това", каза Хинтън.