Una nuova API di ricerca web è ora disponibile in Ollama, il popolare strumento open source che permette di eseguire modelli linguistici di grandi dimensioni (LLM) direttamente su computer locali macOS, Windows e Linux, e ora anche in cloud.
Ollama – spiega il team – offre un generoso livello gratuito di ricerche web per uso personale, mentre limiti più elevati sono disponibili tramite Ollama cloud.
Questa nuova funzionalità di ricerca web può potenziare i modelli con le informazioni più recenti dal web per ridurre le allucinazioni e migliorare la precisione.
La ricerca web è fornita come API REST con integrazioni più profonde degli strumenti nelle librerie Python e JavaScript di Ollama. Ciò consente anche a modelli come quelli della famiglia gpt-oss di OpenAI di svolgere attività di ricerca di lunga durata.
Per l’utilizzo di questa funzionalità il team consiglia di usare qwen3 e gpt-oss, modelli che hanno grandi capacità di utilizzo degli strumenti e sono in grado di interagire più volte sia con l’utente che con gli strumenti per arrivare al risultato finale.
Per quanto riguarda i modelli cloud consigliati, il team fa riferimento a qwen3:480b-cloud, gpt-oss:120b-cloud e deepseek-v3.1-cloud.
I tool web_search e web_fetch possono restituire migliaia di token e il team consiglia agli sviluppatori di aumentare la lunghezza del contesto del modello a circa 32000 token per ottenere prestazioni ragionevoli, e sottolinea che gli agenti di ricerca funzionano al meglio con la lunghezza completa del contesto.
L’utilizzo della nuova API web_fetch consente di recuperare singole pagine, ad esempio quando un utente fornisce un URL nel prompt.
È anche possibile abilitare la ricerca web in qualsiasi client MCP tramite il server MCP (Model Context Protocol) Python. È possibile ad esempio integrare con Cline, con Goose e con Codex.
La ricerca web è inclusa anche con un account gratuito Ollama, e limiti molto più elevati sono disponibili effettuando l’upgrade all’abbonamento a pagamento.









