@@ -2625,7 +2625,7 @@ def llama_get_embeddings_seq(
26252625 "llama_vocab_get_text" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_char_p
26262626)
26272627def llama_vocab_get_text (
2628- model : llama_model_p , token : Union [llama_token , int ], /
2628+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
26292629) -> bytes :
26302630 ...
26312631
@@ -2635,7 +2635,7 @@ def llama_vocab_get_text(
26352635 "llama_vocab_get_score" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_float
26362636)
26372637def llama_vocab_get_score (
2638- model : llama_model_p , token : Union [llama_token , int ], /
2638+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
26392639) -> float :
26402640 ...
26412641
@@ -2645,7 +2645,7 @@ def llama_vocab_get_score(
26452645 "llama_vocab_get_attr" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_int
26462646)
26472647def llama_vocab_get_attr (
2648- model : llama_model_p , token : Union [llama_token , int ], /
2648+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
26492649) -> int :
26502650 ...
26512651
@@ -2655,7 +2655,7 @@ def llama_vocab_get_attr(
26552655@ctypes_function (
26562656 "llama_vocab_is_eog" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_bool
26572657)
2658- def llama_vocab_is_eog (model : llama_model_p , token : Union [llama_token , int ], / ) -> bool :
2658+ def llama_vocab_is_eog (vocab : llama_vocab_p , token : Union [llama_token , int ], / ) -> bool :
26592659 """Check if the token is supposed to end generation (end-of-generation, eg. EOS, EOT, etc.)"""
26602660 ...
26612661
@@ -2666,7 +2666,7 @@ def llama_vocab_is_eog(model: llama_model_p, token: Union[llama_token, int], /)
26662666 "llama_vocab_is_control" , [llama_vocab_p_ctypes , llama_token ], ctypes .c_bool
26672667)
26682668def llama_vocab_is_control (
2669- model : llama_model_p , token : Union [llama_token , int ], /
2669+ vocab : llama_vocab_p , token : Union [llama_token , int ], /
26702670) -> bool :
26712671 """Identify if Token Id is a control token or a render-able token"""
26722672 ...
@@ -2677,91 +2677,91 @@ def llama_vocab_is_control(
26772677
26782678# LLAMA_API llama_token llama_vocab_bos(const struct llama_vocab * vocab); // beginning-of-sentence
26792679@ctypes_function ("llama_vocab_bos" , [llama_vocab_p_ctypes ], llama_token )
2680- def llama_vocab_bos (model : llama_model_p , / ) -> int :
2680+ def llama_vocab_bos (vocab : llama_vocab_p , / ) -> int :
26812681 """beginning-of-sentence"""
26822682 ...
26832683
26842684
26852685# LLAMA_API llama_token llama_vocab_eos(const struct llama_vocab * vocab); // end-of-sentence
26862686@ctypes_function ("llama_vocab_eos" , [llama_vocab_p_ctypes ], llama_token )
2687- def llama_vocab_eos (model : llama_model_p , / ) -> int :
2687+ def llama_vocab_eos (vocab : llama_vocab_p , / ) -> int :
26882688 """end-of-sentence"""
26892689 ...
26902690
26912691
26922692# LLAMA_API llama_token llama_vocab_eot(const struct llama_vocab * vocab); // end-of-turn
26932693@ctypes_function ("llama_vocab_eot" , [llama_vocab_p_ctypes ], llama_token )
2694- def llama_vocab_eot (model : llama_model_p , / ) -> int :
2694+ def llama_vocab_eot (vocab : llama_vocab_p , / ) -> int :
26952695 """end-of-turn"""
26962696 ...
26972697
26982698# LLAMA_API llama_token llama_vocab_cls(const struct llama_vocab * vocab), // classification
26992699# "use llama_vocab_bos instead");
27002700@ctypes_function ("llama_vocab_cls" , [llama_vocab_p_ctypes ], llama_token )
2701- def llama_vocab_cls (model : llama_model_p , / ) -> int :
2701+ def llama_vocab_cls (vocab : llama_vocab_p , / ) -> int :
27022702 """llama_vocab_cls"""
27032703 ...
27042704
27052705
27062706# LLAMA_API llama_token llama_vocab_sep(const struct llama_vocab * vocab); // sentence separator
27072707@ctypes_function ("llama_vocab_sep" , [llama_vocab_p_ctypes ], llama_token )
2708- def llama_vocab_sep (model : llama_model_p , / ) -> int :
2708+ def llama_vocab_sep (vocab : llama_vocab_p , / ) -> int :
27092709 """sentence separator"""
27102710 ...
27112711
27122712
27132713# LLAMA_API llama_token llama_vocab_nl (const struct llama_vocab * vocab); // next-line
27142714@ctypes_function ("llama_vocab_nl" , [llama_vocab_p_ctypes ], llama_token )
2715- def llama_vocab_nl (model : llama_model_p , / ) -> int :
2715+ def llama_vocab_nl (vocab : llama_vocab_p , / ) -> int :
27162716 """next-line"""
27172717 ...
27182718
27192719# LLAMA_API llama_token llama_vocab_pad(const struct llama_vocab * vocab); // padding
27202720@ctypes_function ("llama_vocab_pad" , [llama_vocab_p_ctypes ], llama_token )
2721- def llama_vocab_pad (model : llama_model_p , / ) -> int :
2721+ def llama_vocab_pad (vocab : llama_vocab_p , / ) -> int :
27222722 """padding"""
27232723 ...
27242724
27252725
27262726# LLAMA_API bool llama_vocab_get_add_bos(const struct llama_vocab * vocab);
27272727@ctypes_function ("llama_vocab_get_add_bos" , [llama_vocab_p_ctypes ], ctypes .c_bool )
2728- def llama_vocab_get_add_bos (model : llama_model_p , / ) -> bool :
2728+ def llama_vocab_get_add_bos (vocab : llama_vocab_p , / ) -> bool :
27292729 ...
27302730
27312731
27322732# LLAMA_API bool llama_vocab_get_add_eos(const struct llama_vocab * vocab);
27332733@ctypes_function ("llama_vocab_get_add_eos" , [llama_vocab_p_ctypes ], ctypes .c_bool )
2734- def llama_vocab_get_add_eos (model : llama_model_p , / ) -> bool :
2734+ def llama_vocab_get_add_eos (vocab : llama_vocab_p , / ) -> bool :
27352735 ...
27362736
27372737# LLAMA_API llama_token llama_vocab_fim_pre(const struct llama_vocab * vocab);
27382738@ctypes_function ("llama_vocab_fim_pre" , [llama_vocab_p_ctypes ], llama_token )
2739- def llama_vocab_fim_pre (model : llama_model_p , / ) -> int :
2739+ def llama_vocab_fim_pre (vocab : llama_vocab_p , / ) -> int :
27402740 ...
27412741
27422742# LLAMA_API llama_token llama_vocab_fim_suf(const struct llama_vocab * vocab);
27432743@ctypes_function ("llama_vocab_fim_suf" , [llama_vocab_p_ctypes ], llama_token )
2744- def llama_vocab_fim_suf (model : llama_model_p , / ) -> int :
2744+ def llama_vocab_fim_suf (vocab : llama_vocab_p , / ) -> int :
27452745 ...
27462746
27472747# LLAMA_API llama_token llama_vocab_fim_mid(const struct llama_vocab * vocab);
27482748@ctypes_function ("llama_vocab_fim_mid" , [llama_vocab_p_ctypes ], llama_token )
2749- def llama_vocab_fim_mid (model : llama_model_p , / ) -> int :
2749+ def llama_vocab_fim_mid (vocab : llama_vocab_p , / ) -> int :
27502750 ...
27512751
27522752# LLAMA_API llama_token llama_vocab_fim_pad(const struct llama_vocab * vocab);
27532753@ctypes_function ("llama_vocab_fim_pad" , [llama_vocab_p_ctypes ], llama_token )
2754- def llama_vocab_fim_pad (model : llama_model_p , / ) -> int :
2754+ def llama_vocab_fim_pad (vocab : llama_vocab_p , / ) -> int :
27552755 ...
27562756
27572757# LLAMA_API llama_token llama_vocab_fim_rep(const struct llama_vocab * vocab);
27582758@ctypes_function ("llama_vocab_fim_rep" , [llama_vocab_p_ctypes ], llama_token )
2759- def llama_vocab_fim_rep (model : llama_model_p , / ) -> int :
2759+ def llama_vocab_fim_rep (vocab : llama_vocab_p , / ) -> int :
27602760 ...
27612761
27622762# LLAMA_API llama_token llama_vocab_fim_sep(const struct llama_vocab * vocab);
27632763@ctypes_function ("llama_vocab_fim_sep" , [llama_vocab_p_ctypes ], llama_token )
2764- def llama_vocab_fim_sep (model : llama_model_p , / ) -> int :
2764+ def llama_vocab_fim_sep (vocab : llama_vocab_p , / ) -> int :
27652765 ...
27662766
27672767
0 commit comments