Kiberxavfsizlik mutaxassislari tomonidan Ollama platformasida jiddiy zaiflik aniqlandi. Ushbu open-source AI tizimi Large Language Model (LLM)larni lokal ishga tushirish uchun keng qo‘llaniladi.
Aniqlangan zaiflik “CVE-2026-5757” sifatida ro‘yxatga olingan bo‘lib, u server xotirasidan maxfiy ma’lumotlarni sizib chiqishiga olib keladi. Eng xavfli jihati — bu hujumni amalga oshirish uchun autentifikatsiya talab qilinmaydi.
Zaiflik xavfsizlik tadqiqotchisi Jeremy Brown tomonidan AI yordamida olib borilgan tadqiqotlar davomida aniqlangan va 2026-yil 22-aprel kuni oshkor qilingan.
Muammo Ollama platformasining model upload funksiyasida joylashgan. Hujumchilar maxsus tayyorlangan GGUF (GPT-Generated Unified Format) faylni serverga yuklash orqali tizim xotirasiga noqonuniy kirish imkoniyatiga ega bo‘ladi.
"Model quantization — ya’ni modelni siqish texnologiyasi — aslida samaradorlikni oshirish uchun ishlatiladi, ammo aynan shu mexanizm noto‘g‘ri ishlashi sabab xavfli zaiflik yuzaga kelgan."
Zaiflik uchta asosiy muammo kombinatsiyasi orqali ishlaydi:
Birinchidan, tizim fayl metadata’siga haddan tashqari ishonadi va real hajmni tekshirmaydi.
Ikkinchidan, Go dasturlash tilidagi unsafe slice funksiyasi orqali xavfli xotira o‘qish amalga oshiriladi.
Uchinchidan esa, sizib chiqqan ma’lumotlar yangi model layer sifatida yozilib, tashqariga uzatiladi.
Natijada, hujumchi server heap xotirasidan quyidagi ma’lumotlarni qo‘lga kiritishi mumkin:
- API tokenlar
- foydalanuvchi credentiallari
- shifrlash kalitlari
- maxfiy AI promptlar
Bu esa to‘liq tizim buzilishiga olib kelishi va hujumchiga uzoq muddatli yashirin kirish imkonini berishi mumkin.
Eng xavotirli jihati — hozircha ushbu zaiflik uchun rasmiy patch mavjud emas. Ishlab chiquvchilar bilan aloqa o‘rnatib bo‘lmagan.
CERT/CC mutaxassislari vaqtinchalik quyidagi himoya choralarini tavsiya qilmoqda:
"Model upload funksiyasini o‘chirib qo‘yish — agar u majburiy bo‘lmasa — eng samarali himoya hisoblanadi."
Shuningdek, tizim administratorlariga quyidagilar tavsiya etiladi:
- upload interfeysni faqat lokal tarmoqqa cheklash
- tashqi IP manzillarni bloklash
- faqat ishonchli manbalardan model qabul qilish
Mutaxassislar ta’kidlashicha, bu hodisa AI platformalar xavfsizligi hali ham yetarlicha mustahkam emasligini yana bir bor ko‘rsatdi.



