За життя

Тут можна переглянути відео, а ось інструкції з відео:

  • /plugin install skill-creator@claude-plugins-official
  • /plugin install superpowers@claude-plugins-official
  • npx get-shit-done-cc --claude --global
  • /review
  • /plugin marketplace add mksglu@context-mode  +   /plugin install context-mode@context-mode
  • /plugin marketplace add thedotmack/claude-mem
Оскільки microsoft оголосив відмову від flat fee в планах CoPilot, вангую, що Claude скоро зробить те саме (а ChatGPT теж має проблеми з фінансами, тому й вони прикручуватимуть гайки). І все більше людей переходитимуть на локальні рішення. Отже, із залізом будуть проблеми.

Вирішив бути першим та, поки що для експериментів, замовив собі потужнішу відеокарту. Але не RTX 5090, а Radeon Turbo AI Pro R9700 (останній більш заточений на AI, тоді як перший - це ігрова відеокарта). Щось мені підказує, що їхня ціна піде значно вгору, тоді як загальноігрові RTX 5090 коштують вже в 2.5 рази дорожче (і за межами здорового глузду). Зауважу також, що нові поробки ябла працюють на рівні моєї робочої станції 4-річної давнини, тому сенсу платити за щось яблу немає геть.

Водночас, до відеокарти потрібен UPS, щоб та відеокарта не згоріла. І тут сюрприз. ChatGPT мені розповів, що не кожен UPS годиться. В мене був 900-ватний, але не такий як треба, і той склеїв ласти та був сьогодні відправлений в ремонт. Якщо не полагодять, то потрібен новий. Почав розбиратися щодо нових. Мені було сказано, що потрібен line-interactive (це коли струм йде з мережі, а не в батарею і назад з батареї) із Pure sine wave (а не simulated sine wave). А от із цим проблеми - таких моделей не дуже багато. І оскільки мені потрібен ще й потужний (900-1000 ватт мінімум), то єдина пристойна модель за адеватні гроші, це CyberPower CP1600EPFCLCD . І от їх немає в Словаччині взагалі. Закінчилися. Підозрюю, що як я кинувся купувати відеокарту, люди вже раніше розмели ці UPS'и. Є CyberPower CP1350EPFCLCD, але він слабший (850 Вт проти 1000 Вт), і мені не вистачить.  

Тому якщо ви плануєте апгрейд заліза, а зокрема відеокарти, орієнтуйтеся на ці вимоги та моделі.
Розрізнені нотатки для того, щоб ними ділитися.

Отже, ми почали активно використовувати Claude і зокрема Claude Code. Claude Code має доступ до файлової системи, а сам Claude - ні. Але Claude Code - поганий чатбот (він для іншого зроблений). І от мені знадобилося натравити Claude Chat на локальний проєкт. Причому не на один файл, а на каталог з підкаталогами.

В Claude Desktop є плагін filesystem, але в мене він відмовився працювати - запускається і вилітає. Я спитав в самого claude'а причину, надавши логи, але той нічого корисного не повідомив (те, що він запропонував, не допомогло). Тоді я спитав те саме в ChatGPT. І воно мені дало підказку - завести зовнішній плагін для доступу.

0) встановити node.js

1) встановити плагін:

npm install -g @modelcontextprotocol/server-filesystem

2) знайти файл %APPDATA%\Claude\claude_desktop_config.json та додати в нього (в кореневий об'єкт) таке:

  "mcpServers": {
    "my-files": {
      "command": "C:\\Program Files\\nodejs\\node.exe",
      "args": [
        "%USERPROFILE%\\AppData\\Roaming\\npm\\node_modules\\@modelcontextprotocol\\server-filesystem\\dist\\index.js",
        "%USERPROFILE%\\Documents",
        "C:\\Projects"
      ]
    }
  }


command - це шлях до локального nodejs. В мене він чомусь в Program Files (x86) опинився.
 "%USERPROFILE%\\Documents",
        "C:\\Projects"

це шляхи, до яких цьому серверу надається доступ. Це в мене мої шляхи, їх слід поміняти на ваші. Не забудьте при заміні, що backslash подвоюється (escaped encoding).

Після цього слід перезапустити claude, щоб він перечитав налаштування.
І далі цей my-files з'явиться серед конекторів.  
Спитав у провідних AI моделей, скільки буде 50!!! (triple factorial).

ChatGPT зрозумів, що я питаю про triple factorial, написав текст притомно, але результат видав сумнівний.
Grok почав сипати формулами на три сторінки, результат сумнівний.
Claude 3 вирішила що я можу питати про простий факторіал та про потрійний. Видала результат на обидва, але схоже що теж неправильно.
Meta AI без зайвих слів розписала всі операції множення в стовпчик одна за іншою і видала результат такий же, як мій код на C#.
Wolfram Alpha відмовився розуміти, що таке triple factorial - намагався порахувати (50!!)! , потім коли я написав словами triple factorial of 50, він почав рахувати просто 50! .

Результати:

ChatGPT:   1089156133385220211968000000
Grok:      227257320000000000000000000
Claude:    1946195068359375000000
Meta AI:   13106744139423334400000
мій C# код
на базі
BigNumber: 13106744139423334400000



Так що не переймайтеся, до skynet'а нам ще далеко.
Попросив chat.bing.com написати функцію, що декодує json. AI написав функцію, тут же її стер і вибачився. І так три рази. Потім на питання відповів, що він має дотримуватися rules and guidelines.

Ок. Я пішов на chat.openai.com з тим же питанням. Той написав мені функцію, але не дуже оптимально.

Тоді я повернувся на chat.bing.com та попросив пооптимізувати написану "колегою" функцію. І отримав рівно той код, який chat.bing.com писав від початку.  
А що як *все* людство - це тренування лише однієї нейронної мережі?
  • Архів

    «   Травень 2026   »
    Пн Вт Ср Чт Пт Сб Нд
            1 2 3
    4 5 6 7 8 9 10
    11 12 13 14 15 16 17
    18 19 20 21 22 23 24
    25 26 27 28 29 30 31