Локальная LLM за 20 минут: Qwen 3.6 + LM Studio | Без воды
В этом видео ты за 20 минут запустишь локальную нейросеть на своём компьютере 🚀 Без сложной теории, без лишних слов — только практика и понятные шаги. Мы установим LM Studio и запустим мощную модель Qwen 3.6 локально, без API и подписок. 🔥 Что ты получишь ✅ Локальную LLM, работающую прямо на твоём ПК ✅ Полную приватность — данные никуда не уходят ✅ Работу без интернета ✅ Экономию на подписках 🧠 В этом видео разберём ⚙️ Установка и запуск -как скачать и установить LM Studio -как выбрать и загрузить модель Qwen 3.6 -какие настройки важны при запуске agent_lmstudio.py выложил в Телеграм и МАХ Мои каналы в соцсетях: YouTube https://www.youtube.com/@DmitryCherkashin_AI RUTUBE https://rutube.ru/channel/54317674/ Telegram https://t.me/DmitryCherkashin_AI MAX https://max.ru/join/ZlyMpjSyE1fdVZ5Ow_pGFxTLaBBjIVuee61CluxQg8c ВК https://vk.com/dmitrycherkashin_ai ВК Видео https://vkvideo.ru/@dmitrycherkashin_ai 🚀 Настройка модели -параметры Load (контекст, GPU, память) -параметры Inference (температура, Top P, Top K) -как ускорить работу модели 📂 Работа с файлами (RAG) -как загрузить свои документы -как заставить модель отвечать по ним -как использовать это в реальных задачах 🌐 Подключение через сервер -как включить локальный сервер -как обращаться к модели из кода 🧑💻 Практика -запускаем Python-приложение -отправляем запросы в локальную LLM ⚠️ Важно Большие модели требуют ресурсов. Если у тебя обычный ПК — раскажу, как подобрать оптимальные настройки. 🔗 Полезные команды Запуск Python-приложения: python agent_lmstudio.py Проверка API: http://127.0.0.1:1234/v1/models 💬 Напиши в комментариях -какую модель используешь -получилось ли запустить -нужен ли разбор продвинутого как написать Python-приложение 📢 Подписывайся Если хочешь: -разбираться в AI -создавать свои инструменты -зарабатывать с помощью нейросетей 🔥 Это не просто установка. Это первый шаг к своему локальному AI-ассистенту. Тайм коды: 00:00 – Вступление 00:24 – Что такое локальная нейросеть и её преимущества 02:03 – Требования к железу (RAM, VRAM) 02:33 – Параметры и типы моделей (токены, мощность) 03:34 – Квантизация: оптимизация размера и скорости 04:50 – Установка LM Studio 05:51 – Настройка интерфейса и выбор модели 06:22 – Скачивание и настройка Qwen 3.6 35B 07:25 – Возможности модели Qwen 3.6 35B: работа с изображениями и файлами 08:22 – Альтернативные модели и подбор под ваше железо 10:28 – Тонкие настройки в LM Studio (Найстройка Load) 12:45 – Найстройка Inference 15:33 – Запуск Qwen 3.6 35B 16:40 – Проверяем плагин RAG 19:15 – Запуск сервера 19:50 – Об установке Python 19:15 – Запуск сервера 20:05 – Общаемся с моделью через сервер 21:37 – Нюасы при работе с моделью #локальнаяLLM, #LMStudio, #Qwen, искусственныйинтеллект, #нейросети, #AI, #LLM, #локальныйAI, #AIбезинтернета, #запускLLM, #настройкаLLM
В этом видео ты за 20 минут запустишь локальную нейросеть на своём компьютере 🚀 Без сложной теории, без лишних слов — только практика и понятные шаги. Мы установим LM Studio и запустим мощную модель Qwen 3.6 локально, без API и подписок. 🔥 Что ты получишь ✅ Локальную LLM, работающую прямо на твоём ПК ✅ Полную приватность — данные никуда не уходят ✅ Работу без интернета ✅ Экономию на подписках 🧠 В этом видео разберём ⚙️ Установка и запуск -как скачать и установить LM Studio -как выбрать и загрузить модель Qwen 3.6 -какие настройки важны при запуске agent_lmstudio.py выложил в Телеграм и МАХ Мои каналы в соцсетях: YouTube https://www.youtube.com/@DmitryCherkashin_AI RUTUBE https://rutube.ru/channel/54317674/ Telegram https://t.me/DmitryCherkashin_AI MAX https://max.ru/join/ZlyMpjSyE1fdVZ5Ow_pGFxTLaBBjIVuee61CluxQg8c ВК https://vk.com/dmitrycherkashin_ai ВК Видео https://vkvideo.ru/@dmitrycherkashin_ai 🚀 Настройка модели -параметры Load (контекст, GPU, память) -параметры Inference (температура, Top P, Top K) -как ускорить работу модели 📂 Работа с файлами (RAG) -как загрузить свои документы -как заставить модель отвечать по ним -как использовать это в реальных задачах 🌐 Подключение через сервер -как включить локальный сервер -как обращаться к модели из кода 🧑💻 Практика -запускаем Python-приложение -отправляем запросы в локальную LLM ⚠️ Важно Большие модели требуют ресурсов. Если у тебя обычный ПК — раскажу, как подобрать оптимальные настройки. 🔗 Полезные команды Запуск Python-приложения: python agent_lmstudio.py Проверка API: http://127.0.0.1:1234/v1/models 💬 Напиши в комментариях -какую модель используешь -получилось ли запустить -нужен ли разбор продвинутого как написать Python-приложение 📢 Подписывайся Если хочешь: -разбираться в AI -создавать свои инструменты -зарабатывать с помощью нейросетей 🔥 Это не просто установка. Это первый шаг к своему локальному AI-ассистенту. Тайм коды: 00:00 – Вступление 00:24 – Что такое локальная нейросеть и её преимущества 02:03 – Требования к железу (RAM, VRAM) 02:33 – Параметры и типы моделей (токены, мощность) 03:34 – Квантизация: оптимизация размера и скорости 04:50 – Установка LM Studio 05:51 – Настройка интерфейса и выбор модели 06:22 – Скачивание и настройка Qwen 3.6 35B 07:25 – Возможности модели Qwen 3.6 35B: работа с изображениями и файлами 08:22 – Альтернативные модели и подбор под ваше железо 10:28 – Тонкие настройки в LM Studio (Найстройка Load) 12:45 – Найстройка Inference 15:33 – Запуск Qwen 3.6 35B 16:40 – Проверяем плагин RAG 19:15 – Запуск сервера 19:50 – Об установке Python 19:15 – Запуск сервера 20:05 – Общаемся с моделью через сервер 21:37 – Нюасы при работе с моделью #локальнаяLLM, #LMStudio, #Qwen, искусственныйинтеллект, #нейросети, #AI, #LLM, #локальныйAI, #AIбезинтернета, #запускLLM, #настройкаLLM
