白いアサインメント案件のプレゼンテーションの準備に、Llama 3.1 Swallow 70B v0.1(RichardErkov氏)やtokyotech-llm_-_Llama-3.1-Swallow-70B-v0.1-gguf(mmnga氏)のモデルをGPU OFFLOADして 96 GB RAMを使い切る設定で試してみるが、学習不足の回答にてこずって数日経過してしまった。
比較のために同じプロンプトをchatGPTにかけてみたら…ほとんど待ち時間もなく資格試験に一発合格間違いなしの完ぺきな回答を並べて、対象の特性まで考慮して分析し適切な提案をしてくるし、それをまとめてスライドにするようにお願いするとpptファイルの生成はしないものの、タイトルや論点の骨子を箇条書きにしてくる。
筆者の学のなさを露呈しているようで情けないが、無駄なおしゃべりはしないかわりに、知識に裏付けられたとても濃密な中身のある会話ができる。いったいどれだけ学習したら、これだけの「学」が身につくんだ!?とたずねてみると
実は、数百万から数十億単位のデータポイント(つまり文献や記事、教材などから抜粋したテキスト)をもとに学習しています。**や**を含む多くの分野の資料から基本概念を学び、さまざまな質問に対応できるように訓練されています。
今後もぜひ一緒に******への道をサポートさせてくださいね!
とのことである。
いちからスクリーンエディタや表計算ソフトをコーディングする時代ではなくなったように、参考資料からコーパスを作って学習させて、限定された領域で(は)オールマイティなモデルを構築する…という時代も過ぎ去りつつあるのではないかと、悔しいけれど少し萎えてしまった。
アップデートを控えていたAMD adrenalin editionの次のアップデート(amd-software-adrenalin-edition-24.10.1)をかけたら、また悪夢が蘇ってきた。