GPT Semantic Cache: Reducing LLM Costs and Latency via Semantic Embedding Caching

Сохранить в:
Библиографические подробности
Опубликовано в::arXiv.org (Dec 9, 2024), p. n/a
Главный автор: Regmi, Sajal
Другие авторы: Pun, Chetan Phakami
Опубликовано:
Cornell University Library, arXiv.org
Предметы:
Online-ссылка:Citation/Abstract
Full text outside of ProQuest
Метки: Добавить метку
Нет меток, Требуется 1-ая метка записи!
Ваш комментарий будет первым!
Сначала войдите в систему