Regmi, S., & Pun, C. P. (Dec 9, 2024). GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching. arXiv.org.
Copiat
No s'ha pogut copiar
Cita Chicago (17th ed.)
Regmi, Sajal, i Chetan Phakami Pun. "GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching."
ArXiv.org Dec 9, 2024.
Copiat
No s'ha pogut copiar
Cita MLA (9th ed.)
Regmi, Sajal, i Chetan Phakami Pun. "GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching."
ArXiv.org, Dec 9, 2024.
Copiat
No s'ha pogut copiar
Atenció: Aquestes cites poden no estar 100% correctes.