INSHE.TV
Неділя, 3 Серпня, 2025
Підтримати
Немає результатів
Подивитися усі результати
  • Всі новини
  • Найважливіше
  • Політика
  • Суспільство
  • Миколаїв
  • Надзвичайні події
  • Кримінал
  • Економіка
  • Технології
  • Спорт
Немає результатів
Подивитися усі результати
INSHE.TV
Підтримати
Головна Технології

Нові моделі штучного інтелекту OpenAI мають захист від створення біологічної зброї

19.04.2025
у Технології
Искусственный интеллект по фото может отличать либералов от консерваторов

OpenAI презентувала дві нові моделі ШІ – o3 і o4-mini, які, за словами компанії, є її найпотужнішими розробками у сфері просунутого міркування. Нові інструменти здатні не лише ефективніше аналізувати дані, а й мислити образами – створювати ескізи, маніпулювати зображеннями та використовувати розширений функціонал ChatGPT, включно з генерацією картинок і переглядом вебсторінок, повідомляє 24 Канал з посиланням на Wccftech.

Модель o3 позиціонується як найбільш потужна у лінійці OpenAI, тоді як o4-mini – її легша й швидша версія, яка, попри компактність, демонструє вражаючу продуктивність. Ці моделі вже доступні користувачам тарифів ChatGPT Plus, Pro і Team, а в найближчі тижні компанія обіцяє розширити доступ до вдосконаленої версії o3-pro. Водночас OpenAI починає відмову від застарілих моделей на кшталт o1 та o3-mini, щоб звільнити ресурси для більш досконалих рішень.

Інноваційність нових моделей не обмежується лише технічними характеристиками – OpenAI також серйозно зайнялась питанням безпеки. Згідно з новим звітом компанії, o3 і o4-mini отримали систему моніторингу підказок, яка має на меті виявляти і блокувати спроби використання моделей для створення біологічної або хімічної зброї. Система, яку в OpenAI називають “монітором міркувань, орієнтованим на безпеку”, працює поверх нових моделей і аналізує запити на предмет потенційної шкоди.

Перед запуском цього захисту, команда OpenAI витратила близько 1000 годин на позначення ризикованих сценаріїв взаємодії з моделями. Під час внутрішнього тестування, де симулювався режим роботи нового монітора, моделі відмовлялися відповідати на небезпечні підказки у 98,7% випадків.

Компанія наголошує, що o3 і o4-mini демонструють кращі результати у відповідях, пов’язаних зі створенням біозагроз, порівняно з попередніми моделями, включаючи GPT-4. Це спонукало до впровадження аналогічного контролю для виявлення інших ризиків – наприклад, у системах боротьби з дитячою експлуатацією.

Однак не все так гладко. Деякі дослідники безпеки висловлюють побоювання щодо прозорості. Зокрема, партнер OpenAI – компанія Metr – повідомив, що мав обмаль часу для повноцінного тестування o3 на схильність до оманливої поведінки. Ба більше – OpenAI вирішила не публікувати звіт про безпеку GPT-4.1, яка також була представлена цього тижня.

На фоні жорсткої конкуренції зі сторони китайських розробників, таких як DeepSeek, OpenAI намагається не тільки зберегти технологічну перевагу, а й випередити потенційні ризики. Компанія прагне бути лідером не лише в потужності моделей, а й у їхньому відповідальному використанні.

Немає результатів
Подивитися усі результати
Inshe.tv

ІншеТВ – зареєстроване онлайн-медіа, виходить з 2014-го року. Ідентифікатор медіа – R40-05753

Категорії

  • Відео
  • Економіка
  • Кримінал
  • Курйози
  • Миколаїв
  • Надзвичайні події
  • Найважливіше
  • Політика
  • Спорт
  • Суспільство
  • Технології

Додатково

  • Реклама
  • Контакти
  • Про нас
  • Політика конфіденційності та захисту персональних даних
  • Політика користування сайтом
  • Правила використання матеріалів сайту

© 2025 inshe.tv

Немає результатів
Подивитися усі результати
  • Всі новини
  • Найважливіше
  • Політика
  • Суспільство
  • Миколаїв
  • Надзвичайні події
  • Кримінал
  • Економіка
  • Технології
  • Спорт

© 2025 inshe.tv