@Lambot yo
阿甘
npub13zyg...2rce
聽從命運的安排
一个文件就可以建一个自动回复bot了,调用了本地ollama
@Lambot
笑死😆


简单的AI模型真是一派胡言😂


放弃openclaw,只能 ollama + open webui,简单聊天
没GPU的话,cpu only模式的ollama很难跑openclaw,因为openclaw默认context最低都得16000,卡死了。

裝了ollama,裸機跑qwen2.5:1.5b勉強可以,一旦用moltbot代理,半天都回覆不了
香港機場就是土匪窩,一份炒飯260港幣😭
ollama pull qwen2.5:7b
ollama pull llama3.1:8b
ollama pull qwen2.5-coder:7b
买黄金买白银,普通人最后的翻身机会了,不要怂,梭哈~~
wss://nostr.lostr.space
好像突然间自己复活了
人类对着自己的bot说:你看看别人家的bot…,可不可以好好努力!
