Google wprowadza FunctionGemma 270M – model AI dla urządzeń brzegowych
PANews 22 grudnia, według oficjalnego bloga Google, Google opublikowało FunctionGemma, specjalnie dostosowując Gemma 3 270M jako model wywołań funkcji, skierowany do scenariuszy lokalnych/offline agentów. Jego cechy obejmują zintegrowany czat i wykonywanie narzędzi, wsparcie dla niestandardowego dostrajania (dokładność Mobile Actions wzrosła z 58% do 85%), miniaturyzację i dostosowanie do urządzeń brzegowych (takich jak NVIDIA Jetson Nano, smartfony) oraz optymalizację dla wejść JSON/wielojęzycznych. Oficjalnie udostępniono instrukcje pobierania przez Hugging Face, Kaggle oraz wskazówki dotyczące dostrajania i wdrażania w Transformers, Unsloth, Keras, NeMo, LiteRT‑LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI, LM Studio, a także uruchomiono wiele demonstracji i zbiorów danych/Colab w Edge Gallery.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
