我在《把离线AI智能体装进口袋里》(The Dawn of Offline AI Agents in Your Pocket)一文中对此进行了详细阐述。但文章中的示例更像是Demo,而非生产解决方案。像 Gemma 3n 这样的模型虽然能够很好地处理函数调用,但它们体积过大:无法集成到应用程序包中,需要单独下载,即使在旗舰机型上推理速度也很慢。在低端设备上,它们根本无法运行。而较小的型号则经常出现故障,难以记住工具。
Code dump for 2.16,更多细节参见heLLoword翻译官方下载
Snoopy being tangled \(-1\) times around the hole/lamp,详情可参考旺商聊官方下载
14- and 16-inch MacBook Pro with M5 Pro deliver:2
The Best Qi2 and MagSafe Power Banks for Your Phone