США та Великобританія підписали угоду про тестування безпеки великих мовних моделей (LLM), які лежать в основі систем штучного інтелекту, повідомляє видання sio.com, пише ЛБ.
Угоду про взаєморозуміння (MoU) підписали у Вашингтоні міністр торгівлі США Джина Раймондо та міністр технологій Великої Британії Мішель Донелан.
Меморандум передбачає, що обидві країни працюватимуть над узгодженням своїх наукових підходів і тісно співпрацюватимуть над розробкою наборів оцінок для моделей ШІ.
Новий Інститут безпеки штучного інтелекту Великобританії (AISI) і його американські колеги розроблятимуть бази для перевірки безпеки LLM, на кшталт таких, які розробили OpenAI й Google.
Угоду підписали лише через кілька місяців після того, як у листопаді минулого року британський уряд провів глобальний саміт з безпеки штучного інтелекту, на якому кілька країн, включно з Китаєм, США, Індією, Німеччиною та Францією, погодилися співпрацювати над безпекою ШІ. Країни підписали угоду, яка отримала назву “Декларація Блетчлі”, щоб сформувати спільну лінію мислення, яка контролюватиме еволюцію штучного інтелекту та гарантуватиме безпечний розвиток технології.
Британія, США, ЄС і Китай підписали декларацію про “катастрофічну” небезпеку штучного інтелекту
У травні 2023-го сотні лідерів технологічної галузі, науковців та інших громадських діячів підписали відкритий лист із попередженням про те, що “еволюція ШІ може призвести до вимирання”.
Читайте: Експерт зі штучного інтелекту попереджає про апокаліпсис, що насувається через п’ять років