ゆうひまわり's avatar
ゆうひまわり
yuuhimawari@yuuhimawariero.net
npub1y60x...cll0
illust/イラスト/格ゲー
でもこの前mattnさんのインタビューで見た"実用的と思われたら負け"という言葉にめちゃ勇気もらってる
HY-MT1.5-1.8Bのおかげで、マジでゲームやりながらオーバーレイ翻訳するアプリが実用レベルになってきた まあ、今時翻訳されてないゲームは少ないから、レトロゲームをやる人くらいにしか需要がなさそうだけど
Asus Ascent GX10なら50万で買えるから、そこまで高嶺の花ではないが、他人が使えるアプリとなると モデルの学習用に使うしかないよな。 モデル学習とかどう頑張っても企業に勝てる気がしない
流石にローカルでクラウドモデルに勝てる気がしないな だから民生用機で動くモデルで限定専用アプリ作る
天上人の120Bを見ながら自分は這いつくばって弱々マシンで動くモデルを探してた...
HY-MT1.5-1.8Bはかなりいい。さすが翻訳専用モデル 構造化はちょっと弱いが、カバーできるレベルだ
LLAMACPPのリソースを甘く見ていた。流石にVRAMを多少食うゲームとの併用は実用的な速度ではないな アングラ方式でGoogle翻訳を利用したくなるのもわかるわ
いつも身を削ってNostrに笑いをもたらす発火大根に敬意を!
DeepLのAPIは思ったよりヘタレやな。 今は普通にGoogle翻訳の方が強い
Codex5.3 IDEで使ってもコマンドで自分でテスト検証するのね。 賢い
微妙にバイブコーティング中毒になってる。 アイデアあるのに、実装できないのもどかしすぎる
やはりc++こそが大正義だ。 llama cppのビルドだけが超長いんだけと
紆余屈折して、最終的にllama cppでHY-MT1.5-1.8B ggufを使うことに落ち着いた。翻訳精度、速度、リソース消費ともに申し分ない ctranslate2を試す時間が完全に無駄だ…
苦労して、NLLB 200 600Mのローカル翻訳モデル入れてみたが、精度は...微妙、当たり前だけど、Deeplより数段下、Geminiと比べくもない...