GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching

Salvato in:
Dettagli Bibliografici
Pubblicato in:arXiv.org (Dec 9, 2024), p. n/a
Autore principale: Regmi, Sajal
Altri autori: Pun, Chetan Phakami
Pubblicazione:
Cornell University Library, arXiv.org
Soggetti:
Accesso online:Citation/Abstract
Full text outside of ProQuest
Tags: Aggiungi Tag
Nessun Tag, puoi essere il primo ad aggiungerne!!
Lascia un commento!
Entra