{
    "version": "https:\/\/jsonfeed.org\/version\/1.1",
    "title": "Воронин: заметки с тегом Ollama",
    "_rss_description": "воронин, voronin, it",
    "_rss_language": "ru",
    "_itunes_email": "",
    "_itunes_categories_xml": "",
    "_itunes_image": "",
    "_itunes_explicit": "",
    "home_page_url": "https:\/\/voronin.one\/tags\/ollama\/",
    "feed_url": "https:\/\/voronin.one\/tags\/ollama\/json\/",
    "icon": "https:\/\/voronin.one\/pictures\/userpic\/userpic@2x.jpg?1658757233",
    "authors": [
        {
            "name": "Алексей Воронин",
            "url": "https:\/\/voronin.one\/",
            "avatar": "https:\/\/voronin.one\/pictures\/userpic\/userpic@2x.jpg?1658757233"
        }
    ],
    "items": [
        {
            "id": "59",
            "url": "https:\/\/voronin.one\/all\/podklyuchaem-ai-k-nashemu-synology\/",
            "title": "подключаем AI к нашему synology",
            "content_html": "<p>Я использовал свою систему запущенную на Ollama (Nvidia RTX4090), по производительности просадок нет. Как поднять на debian ollama расписывать не стану, сразу перейду к настройке совместной работы с synology.<\/p>\n<p>Для начала на м надо сделать модель, которую сможет вызывать synology, для этого я склонировал Qwen\/Qwen3-235B-A22B в gpt-4o-mini<\/p>\n<pre class=\"e2-text-code\"><code class=\"bash\">echo &quot;FROM qwen3:235b&quot; &gt;&gt; gpt-4o-mini.Modelfile<\/code><\/pre><pre class=\"e2-text-code\"><code class=\"bash\">ollama create gpt-4o-mini -f .\/gpt-4o-mini.Modelfile<\/code><\/pre><p>проверка работы<\/p>\n<pre class=\"e2-text-code\"><code class=\"bash\">curl http:\/\/localhost:11434\/api\/generate -d &#039;{ &quot;model&quot;: &quot;gpt-4o-mini&quot;, &quot;prompt&quot;: &quot;Why is the sky blue?&quot; }&#039;<\/code><\/pre><div class=\"e2-text-picture\">\n<img src=\"https:\/\/voronin.one\/pictures\/image-93.png\" width=\"800\" height=\"417.2131147541\" alt=\"\" \/>\n<\/div>\n<p>URL по-умолчанию для подключения к локальной Ollama <a href=\"http:\/\/ip_нашего_сервера:11434\">http:\/\/ip_нашего_сервера:11434<\/a><\/p>\n<p>формат API идентичный OpenAI<\/p>\n<p>теперь в Synology добавляем новую LLM<\/p>\n<div class=\"e2-text-picture\">\n<img src=\"https:\/\/voronin.one\/pictures\/image-94.png\" width=\"686\" height=\"483\" alt=\"\" \/>\n<\/div>\n<p>название указываем своё, ключ API — любой (можно пробел)<\/p>\n<p>открываем «Дополнительные настройки» и прописываем нашу URL<\/p>\n<div class=\"e2-text-picture\">\n<img src=\"https:\/\/voronin.one\/pictures\/image-95.png\" width=\"691\" height=\"491\" alt=\"\" \/>\n<\/div>\n<p>готово<\/p>\n",
            "date_published": "2026-01-09T12:41:00+03:00",
            "date_modified": "2026-01-09T12:40:24+03:00",
            "tags": [
                "API",
                "gpt",
                "Ollama",
                "OpenAI",
                "Qwen",
                "synology"
            ],
            "image": "https:\/\/voronin.one\/pictures\/image-93.png",
            "_date_published_rfc2822": "Fri, 09 Jan 2026 12:41:00 +0300",
            "_rss_guid_is_permalink": "false",
            "_rss_guid": "59",
            "_e2_data": {
                "is_favourite": false,
                "links_required": [
                    "highlight\/highlight.js",
                    "highlight\/highlight.css"
                ],
                "og_images": [
                    "https:\/\/voronin.one\/pictures\/image-93.png",
                    "https:\/\/voronin.one\/pictures\/image-94.png",
                    "https:\/\/voronin.one\/pictures\/image-95.png"
                ]
            }
        }
    ],
    "_e2_version": 4171,
    "_e2_ua_string": "Aegea 11.4 (v4171)"
}