@@ -71,11 +71,11 @@ def close(self):
7171 def __del__ (self ):
7272 self .close ()
7373
74- def vocab_type (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
75- return llama_cpp .llama_vocab_type (_vocab )
74+ def vocab_type (self , vocab :llama_cpp .llama_vocab_p ) -> int :
75+ return llama_cpp .llama_vocab_type (vocab )
7676
77- def n_vocab (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
78- return llama_cpp .llama_vocab_n_tokens (_vocab )
77+ def n_vocab (self , vocab :llama_cpp .llama_vocab_p ) -> int :
78+ return llama_cpp .llama_vocab_n_tokens (vocab )
7979
8080 def n_ctx_train (self ) -> int :
8181 return llama_cpp .llama_model_n_ctx_train (self .model )
@@ -99,85 +99,85 @@ def n_params(self) -> int:
9999
100100 # Vocab
101101
102- def token_get_text (self , _vocab :llama_cpp .llama_vocab_p , token : int ) -> str :
103- return llama_cpp .llama_vocab_get_text (_vocab , token ).decode ("utf-8" )
102+ def token_get_text (self , vocab :llama_cpp .llama_vocab_p , token : int ) -> str :
103+ return llama_cpp .llama_vocab_get_text (vocab , token ).decode ("utf-8" )
104104
105- def token_get_score (self , _vocab :llama_cpp .llama_vocab_p , token : int ) -> float :
106- return llama_cpp .llama_vocab_get_score (_vocab , token )
105+ def token_get_score (self , vocab :llama_cpp .llama_vocab_p , token : int ) -> float :
106+ return llama_cpp .llama_vocab_get_score (vocab , token )
107107
108- def token_get_attr (self , _vocab :llama_cpp .llama_vocab_p , token : int ) -> int :
109- return llama_cpp .llama_vocab_get_attr (_vocab , token )
108+ def token_get_attr (self , vocab :llama_cpp .llama_vocab_p , token : int ) -> int :
109+ return llama_cpp .llama_vocab_get_attr (vocab , token )
110110
111111 # Special tokens
112112
113- def token_bos (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
114- return llama_cpp .llama_vocab_bos (_vocab )
113+ def token_bos (self , vocab :llama_cpp .llama_vocab_p ) -> int :
114+ return llama_cpp .llama_vocab_bos (vocab )
115115
116- def token_eos (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
117- return llama_cpp .llama_vocab_eos (_vocab )
116+ def token_eos (self , vocab :llama_cpp .llama_vocab_p ) -> int :
117+ return llama_cpp .llama_vocab_eos (vocab )
118118
119- def token_eot (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
120- return llama_cpp .llama_vocab_eot (_vocab )
119+ def token_eot (self , vocab :llama_cpp .llama_vocab_p ) -> int :
120+ return llama_cpp .llama_vocab_eot (vocab )
121121
122- def token_cls (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
123- return llama_cpp .llama_vocab_cls (_vocab )
122+ def token_cls (self , vocab :llama_cpp .llama_vocab_p ) -> int :
123+ return llama_cpp .llama_vocab_cls (vocab )
124124
125- def token_sep (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
126- return llama_cpp .llama_vocab_sep (_vocab )
125+ def token_sep (self , vocab :llama_cpp .llama_vocab_p ) -> int :
126+ return llama_cpp .llama_vocab_sep (vocab )
127127
128- def token_nl (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
129- return llama_cpp .llama_vocab_nl (_vocab )
128+ def token_nl (self , vocab :llama_cpp .llama_vocab_p ) -> int :
129+ return llama_cpp .llama_vocab_nl (vocab )
130130
131- def token_pad (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
132- return llama_cpp .llama_vocab_pad (_vocab )
131+ def token_pad (self , vocab :llama_cpp .llama_vocab_p ) -> int :
132+ return llama_cpp .llama_vocab_pad (vocab )
133133
134- def token_prefix (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
135- return llama_cpp .llama_vocab_fim_pre (_vocab )
134+ def token_prefix (self , vocab :llama_cpp .llama_vocab_p ) -> int :
135+ return llama_cpp .llama_vocab_fim_pre (vocab )
136136
137- def token_middle (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
138- return llama_cpp .llama_vocab_fim_mid (_vocab )
137+ def token_middle (self , vocab :llama_cpp .llama_vocab_p ) -> int :
138+ return llama_cpp .llama_vocab_fim_mid (vocab )
139139
140- def token_suffix (self , _vocab :llama_cpp .llama_vocab_p ) -> int :
141- return llama_cpp .llama_vocab_fim_suf (_vocab )
140+ def token_suffix (self , vocab :llama_cpp .llama_vocab_p ) -> int :
141+ return llama_cpp .llama_vocab_fim_suf (vocab )
142142
143- def add_bos_token (self , _vocab :llama_cpp .llama_vocab_p ) -> bool :
144- return llama_cpp .llama_vocab_get_add_bos (_vocab )
143+ def add_bos_token (self , vocab :llama_cpp .llama_vocab_p ) -> bool :
144+ return llama_cpp .llama_vocab_get_add_bos (vocab )
145145
146- def add_eos_token (self , _vocab :llama_cpp .llama_vocab_p ) -> bool :
147- return llama_cpp .llama_vocab_get_add_eos (_vocab )
146+ def add_eos_token (self , vocab :llama_cpp .llama_vocab_p ) -> bool :
147+ return llama_cpp .llama_vocab_get_add_eos (vocab )
148148
149149 # Tokenization
150150
151- def tokenize (self , _vocab :llama_cpp .llama_vocab_p , text : bytes , add_bos : bool , special : bool ):
151+ def tokenize (self , vocab :llama_cpp .llama_vocab_p , text : bytes , add_bos : bool , special : bool ):
152152 n_ctx = self .n_ctx_train ()
153153 tokens = (llama_cpp .llama_token * n_ctx )()
154154 n_tokens = llama_cpp .llama_tokenize (
155- _vocab , text , len (text ), tokens , n_ctx , add_bos , special
155+ vocab , text , len (text ), tokens , n_ctx , add_bos , special
156156 )
157157 if n_tokens < 0 :
158158 n_tokens = abs (n_tokens )
159159 tokens = (llama_cpp .llama_token * n_tokens )()
160160 n_tokens = llama_cpp .llama_tokenize (
161- _vocab , text , len (text ), tokens , n_tokens , add_bos , special
161+ vocab , text , len (text ), tokens , n_tokens , add_bos , special
162162 )
163163 if n_tokens < 0 :
164164 raise RuntimeError (
165165 f'Failed to tokenize: text="{ text } " n_tokens={ n_tokens } '
166166 )
167167 return list (tokens [:n_tokens ])
168168
169- def token_to_piece (self , token : int , special : bool = False ) -> bytes :
169+ def token_to_piece (self , vocab : llama_cpp . llama_vocab_p , token : int , special : bool = False ) -> bytes :
170170 buf = ctypes .create_string_buffer (32 )
171- llama_cpp .llama_token_to_piece (self . model , token , buf , 32 , 0 , special )
171+ llama_cpp .llama_token_to_piece (vocab , token , buf , 32 , 0 , special )
172172 return bytes (buf )
173173
174- def detokenize (self , tokens : List [int ], special : bool = False ) -> bytes :
174+ def detokenize (self , vocab : llama_cpp . llama_vocab_p , tokens : List [int ], special : bool = False ) -> bytes :
175175 output = b""
176176 size = 32
177177 buffer = (ctypes .c_char * size )()
178178 for token in tokens :
179179 n = llama_cpp .llama_token_to_piece (
180- self . model , llama_cpp .llama_token (token ), buffer , size , 0 , special
180+ vocab , llama_cpp .llama_token (token ), buffer , size , 0 , special
181181 )
182182 assert n <= size
183183 output += bytes (buffer [:n ])
@@ -605,11 +605,11 @@ def prev_str(self, ctx_main: LlamaContext, n: int) -> str:
605605 def sample (
606606 self ,
607607 ctx_main : LlamaContext ,
608- _vocab :llama_cpp .llama_vocab_p ,
608+ vocab :llama_cpp .llama_vocab_p ,
609609 idx : int = 0 ,
610610 logits_array : Optional [npt .NDArray [np .single ]] = None ,
611611 ):
612- n_vocab = ctx_main .model .n_vocab (_vocab )
612+ n_vocab = ctx_main .model .n_vocab (vocab )
613613 id : int = 0
614614
615615 if logits_array is None :
0 commit comments