В епоху штучного інтелекту багато хто почав використовувати цю технологию як генератор випадкових чисел і символів. Проте сама суть ШІ полягає в тому, щоб створювати передбачувані патерни, визначаючи кожне наступне слово на основі численних уже існуючих навчальних даних. Наскільки в цих умовах можна довіряти ШІ, коли ви просите його згенерувати вам надійний пароль?
Останні дослідження показують, що відповідь на цей питання – “ні”. Існує серйозна проблема з паролями, які генерують великі мовні моделі на кшталт Claude, GPT та Gemini. Попри зовнішню складність, такі паролі мають критично низьку ентропію й повторюються з неприродною регулярністю, пише 24 Канал.
Проблема криється у самій природі великих мовних моделей. Вони не генерують випадкові послідовності – вони передбачають наступний токен на основі навчальних даних. Тобто фактично ставлять наступне слово з огляду на те, яке слово стояло наступним у попередньо вивчених текстах. Тому замість справжньої випадковості виходить лише її імітація з вираженими статистичними упередженнями.
Безпечний пароль вимагає криптографічно стійкого генератора псевдовипадкових чисел, якого у мовних моделей просто немає. Хоча інструменти на зразок KeePass або бібліотека zxcvbn відкритим вихідним кодом від Dropbox оцінюють такі паролі як надійні (близько 100 біт ентропії) реальний аналіз показує зовсім інше: подібні паролі зламуються від кількох секунд до кількох годин.
Один з прикладів можна побачити у компанії Irregular. Її дослідники просили різні моделі згенерувати пароль 50 разів у різних сесіях.
Claude Opus 4.6 видав лише 30 унікальних рядків, а рядок “G7$kL9#mQ2&xP4!w” повторився 18 разів – тобто з імовірністю 36%. Для справді випадкової послідовності ця цифра мала б бути близькою до нуля. Характерні закономірності: більшість паролів починається з великої літери G або з малої k, за якою йде цифра 7, а улюблені символи штучного інтелекту – L, 9, m, 2, $, #. Водночас символи на кшталт * майже ніколи не зустрічаються.
GPT-5.2 і Gemini 3 Flash демонструють аналогічні патерни – наприклад, часті префікси “vQ7!” або “K#7”.
Ще гостріше ця проблема постає в контексті ШІ-агентів. Такі інструменти, як Claude Code, Codex та Gemini-CLI, нерідко самостійно генерують паролі за допомогою мовної моделі замість того, щоб звернутися до безпечних системних утиліт на зразок openssl rand. Особливо часто це відбувається тоді, коли у промпті використовуються формулювання типу “запропонуй пароль”. У результаті слабкі облікові дані потрапляють у Docker Compose-файли, конфігурації FastAPI або .env-файли – і часто без жодного попередження для розробника.
Пошук по GitHub виявляє десятки прикладів відкритого коду з такими паролями. Математика підтверджує небезпеку: 16-символьний пароль від Claude має лише 27 біт реальної ентропії замість очікуваних 98, а перший символ дає лише 2,08 біта.
Аналіз логарифмічних імовірностей GPT показує ще гірший результат – близько 20 біт на 20 символів, при цьому деякі позиції мають ентропію 0,004 біта, тобто є передбачуваними на 99,7%.
Атака перебором, орієнтована на типові ШІ-патерни, здатна зламати такий пароль за кілька годин навіть на застарілому залізі.
Спроби обійти проблему через зміну температури генерації також не дають результату. При максимальному значенні 1,0 Claude все одно повторює улюблені комбінації, а при 0,0 видає один і той самий рядок щоразу. Окремі агентні браузери на зразок ChatGPT Atlas можуть автоматично вставляти такі паролі під час реєстрації на сайтах.
Дослідники рекомендують командам безпеки проводити аудит коду, де застосовувався ШІ, і замінювати всі жорстко закодовані патерни.
Розробникам варто примусово налаштовувати агентів на використання криптографічно безпечних генераторів або менеджерів паролів.
Irregular також закликає розробників мовних моделей відключити пряму генерацію паролів за замовчуванням.
Звичайним же користувачам варто користуватися для вигадування паролів спеціальними сайтами, призначеними для сього. Наприклад, такі пропонують на сайтах антвірусів. Крім того, деякі браузери мають вбудовану функцію генерування випадкових складних паролів.
На тлі прогнозів про те, що штучний інтелект незабаром писатиме переважну частину всього програмного коду, ця вразливість стає не просто технічним курйозом, а системним ризиком.
