GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching

Tallennettuna:
Bibliografiset tiedot
Julkaisussa:arXiv.org (Dec 9, 2024), p. n/a
Päätekijä: Regmi, Sajal
Muut tekijät: Pun, Chetan Phakami
Julkaistu:
Cornell University Library, arXiv.org
Aiheet:
Linkit:Citation/Abstract
Full text outside of ProQuest
Tagit: Lisää tagi
Ei tageja, Lisää ensimmäinen tagi!