GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching

Guardat en:
Dades bibliogràfiques
Publicat a:arXiv.org (Dec 9, 2024), p. n/a
Autor principal: Regmi, Sajal
Altres autors: Pun, Chetan Phakami
Publicat:
Cornell University Library, arXiv.org
Matèries:
Accés en línia:Citation/Abstract
Full text outside of ProQuest
Etiquetes: Afegir etiqueta
Sense etiquetes, Sigues el primer a etiquetar aquest registre!