Съединените щати и Европейският съюз трябва да настояват индустрията за изкуствен интелект (ИИ или AI) да приеме доброволен кодекс на поведение в рамките на следващите няколо месеца, за да се осигурят предпазни мерки, докато се разработват нови закони в тази насока, заяви в сряда еврокомисарят Маргрете Вестагер, отговаряща за технологиите в ЕС.
Законът за изкуствения интелект на Европейския съюз, с правила за разпознаване на лица и биометрично наблюдение, може да бъде първото в света цялостно законодателство, регулиращо технологията, но все още преминава през етапа на законодателен процес.
"В най-добрия случай ще влезе в сила след две и половина до три години. Това очевидно е твърде късно. Трябва да действаме веднага“, посочи Вестагер пред репортери преди среща на съвместния Съвет за търговия и технологии ЕС-САЩ в Швеция.
Еврокомисарят по индустрията Тиери Бретон каза през миналата седмица, че американският технологичен гигант Alphabet (компанията майка на Google) и Европейската комисия имат за цел да разработят пакт за ИИ, тъй като опасенията нарастват относно въздействието върху обществото, особено от генеративния изкуствен интелект като ChatGPT, който създава съдържание.
По-рано този месец лидерите на страните от Г-7 призоваха за разработване на технически стандарти, за да поддържат "заслужаващ доверие" ИИ, призовавайки за международни дискусии по теми като управление, авторски права, прозрачност и заплахата от дезинформация
Вестагер посочи, че трябва да има съгласие по конкретни, а не само общи изявления, което предполага, че ЕС и САЩ могат да помогнат за задвижването на процеса, отбелязва Ройтерс.
"Ако ние - ЕС и САЩ - поемем лидерството с близки приятели, мисля, че можем да прокараме нещо, което ще ни направи много по-комфортни с факта, че генеративният ИИ вече е в света и се развива с невероятни скорости“, каза още тя.
Вестагер, която е и вицепрезидент на Европейската комисия, посочи, че кодексът за поведение се появява бързо, като редица правителства и законодатели - от ЕС до Канада и Индия - установяват правила.