llama.cpp/tools
Georgi Gerganov 745aa5319b
llama : deprecate llama_kv_self_ API (#14030)
* llama : deprecate llama_kv_self_ API

ggml-ci

* llama : allow llama_memory_(nullptr)

ggml-ci

* memory : add flag for optional data clear in llama_memory_clear

ggml-ci
2025-06-06 14:11:15 +03:00
..
batched-bench llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
cvector-generator llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
export-lora llama : move end-user examples to tools directory (#13249) 2025-05-02 20:27:13 +02:00
gguf-split llama : move end-user examples to tools directory (#13249) 2025-05-02 20:27:13 +02:00
imatrix llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
llama-bench llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
main llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
mtmd llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
perplexity llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
quantize quantize : improve tensor-type pattern matching (#13033) 2025-05-13 19:12:31 +02:00
rpc rpc : Fix build on OpenBSD (#13541) 2025-05-25 15:35:53 +03:00
run llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
server llama : deprecate llama_kv_self_ API (#14030) 2025-06-06 14:11:15 +03:00
tokenize llama : move end-user examples to tools directory (#13249) 2025-05-02 20:27:13 +02:00
tts sync : vendor (#13901) 2025-05-30 16:25:45 +03:00
CMakeLists.txt mtmd : rename llava directory to mtmd (#13311) 2025-05-05 16:02:55 +02:00