Regmi, S., & Pun, C. P. (Dec 9, 2024). GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching. arXiv.org.
Erfolgreich in die Zwischenablage kopiert
Kopieren in die Zwischenablage fehlgeschlagen
Chicago-Zitierstil (17. Ausg.)
Regmi, Sajal, und Chetan Phakami Pun. "GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching."
ArXiv.org Dec 9, 2024.
Erfolgreich in die Zwischenablage kopiert
Kopieren in die Zwischenablage fehlgeschlagen
MLA-Zitierstil (9. Ausg.)
Regmi, Sajal, und Chetan Phakami Pun. "GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching."
ArXiv.org, Dec 9, 2024.
Erfolgreich in die Zwischenablage kopiert
Kopieren in die Zwischenablage fehlgeschlagen
Achtung: Diese Zitate sind unter Umständen nicht zu 100% korrekt.