Тут можна
переглянути відео, а ось інструкції з відео:
- /plugin install skill-creator@claude-plugins-official
- /plugin install superpowers@claude-plugins-official
- npx get-shit-done-cc --claude --global
- /review
- /plugin marketplace add mksglu@context-mode + /plugin install context-mode@context-mode
- /plugin marketplace add thedotmack/claude-mem
Оскільки microsoft оголосив відмову від flat fee в планах CoPilot, вангую, що Claude скоро зробить те саме (а ChatGPT теж має проблеми з фінансами, тому й вони прикручуватимуть гайки). І все більше людей переходитимуть на локальні рішення. Отже, із залізом будуть проблеми.
Вирішив бути першим та, поки що для експериментів, замовив собі потужнішу відеокарту. Але не RTX 5090, а Radeon Turbo AI Pro R9700 (останній більш заточений на AI, тоді як перший - це ігрова відеокарта). Щось мені підказує, що їхня ціна піде значно вгору, тоді як загальноігрові RTX 5090 коштують вже в 2.5 рази дорожче (і за межами здорового глузду). Зауважу також, що нові поробки ябла працюють на рівні моєї робочої станції 4-річної давнини, тому сенсу платити за щось яблу немає геть.
Водночас, до відеокарти потрібен UPS, щоб та відеокарта не згоріла. І тут сюрприз. ChatGPT мені розповів, що не кожен UPS годиться. В мене був 900-ватний, але не такий як треба, і той склеїв ласти та був сьогодні відправлений в ремонт. Якщо не полагодять, то потрібен новий. Почав розбиратися щодо нових. Мені було сказано, що потрібен line-interactive (це коли струм йде з мережі, а не в батарею і назад з батареї) із Pure sine wave (а не simulated sine wave). А от із цим проблеми - таких моделей не дуже багато. І оскільки мені потрібен ще й потужний (900-1000 ватт мінімум), то єдина пристойна модель за адеватні гроші, це CyberPower CP1600EPFCLCD . І от їх немає в Словаччині взагалі. Закінчилися. Підозрюю, що як я кинувся купувати відеокарту, люди вже раніше розмели ці UPS'и. Є CyberPower CP1350EPFCLCD, але він слабший (850 Вт проти 1000 Вт), і мені не вистачить.
Тому якщо ви плануєте апгрейд заліза, а зокрема відеокарти, орієнтуйтеся на ці вимоги та моделі.
Розрізнені нотатки для того, щоб ними ділитися.
Отже, ми почали активно використовувати Claude і зокрема Claude Code. Claude Code має доступ до файлової системи, а сам Claude - ні. Але Claude Code - поганий чатбот (він для іншого зроблений). І от мені знадобилося натравити Claude Chat на локальний проєкт. Причому не на один файл, а на каталог з підкаталогами.
В Claude Desktop є плагін filesystem, але в мене він відмовився працювати - запускається і вилітає. Я спитав в самого claude'а причину, надавши логи, але той нічого корисного не повідомив (те, що він запропонував, не допомогло). Тоді я спитав те саме в ChatGPT. І воно мені дало підказку - завести зовнішній плагін для доступу.
0) встановити node.js
1) встановити плагін:
npm install -g @modelcontextprotocol/server-filesystem |
2) знайти файл %APPDATA%\Claude\claude_desktop_config.json та додати в нього (в кореневий об'єкт) таке:
"mcpServers": {
"my-files": {
"command": "C:\\Program Files\\nodejs\\node.exe",
"args": [
"%USERPROFILE%\\AppData\\Roaming\\npm\\node_modules\\@modelcontextprotocol\\server-filesystem\\dist\\index.js",
"%USERPROFILE%\\Documents",
"C:\\Projects"
]
}
}
|
command - це шлях до локального nodejs. В мене він чомусь в Program Files (x86) опинився.
"%USERPROFILE%\\Documents",
"C:\\Projects" |
це шляхи, до яких цьому серверу надається доступ. Це в мене мої шляхи, їх слід поміняти на ваші. Не забудьте при заміні, що backslash подвоюється (escaped encoding).
Після цього слід перезапустити claude, щоб він перечитав налаштування.
І далі цей my-files з'явиться серед конекторів.
Спитав у провідних AI моделей, скільки буде 50!!! (triple factorial).
ChatGPT зрозумів, що я питаю про triple factorial, написав текст притомно, але результат видав сумнівний.
Grok почав сипати формулами на три сторінки, результат сумнівний.
Claude 3 вирішила що я можу питати про простий факторіал та про потрійний. Видала результат на обидва, але схоже що теж неправильно.
Meta AI без зайвих слів розписала всі операції множення в стовпчик одна за іншою і видала результат такий же, як мій код на C#.
Wolfram Alpha відмовився розуміти, що таке triple factorial - намагався порахувати (50!!)! , потім коли я написав словами triple factorial of 50, він почав рахувати просто 50! .
Результати:
ChatGPT: 1089156133385220211968000000
Grok: 227257320000000000000000000
Claude: 1946195068359375000000
Meta AI: 13106744139423334400000
мій C# код
на базі
BigNumber: 13106744139423334400000
Так що не переймайтеся, до skynet'а нам ще далеко.
Попросив chat.bing.com написати функцію, що декодує json. AI написав функцію, тут же її стер і вибачився. І так три рази. Потім на питання відповів, що він має дотримуватися rules and guidelines.
Ок. Я пішов на chat.openai.com з тим же питанням. Той написав мені функцію, але не дуже оптимально.
Тоді я повернувся на chat.bing.com та попросив пооптимізувати написану "колегою" функцію. І отримав рівно той код, який chat.bing.com писав від початку.
А що як *все* людство - це тренування лише однієї нейронної мережі?