Regmi, S., & Pun, C. P. (Dec 9, 2024). GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching. arXiv.org.
Copia nella clipboard completata con successo
Copia nella clipboard fallita
Citazione stile Chigago Style (17a edizione)
Regmi, Sajal, e Chetan Phakami Pun. "GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching."
ArXiv.org Dec 9, 2024.
Copia nella clipboard completata con successo
Copia nella clipboard fallita
Citatione MLA (9a ed.)
Regmi, Sajal, e Chetan Phakami Pun. "GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching."
ArXiv.org, Dec 9, 2024.
Copia nella clipboard completata con successo
Copia nella clipboard fallita
Attenzione: Queste citazioni potrebbero non essere precise al 100%.