Langchain-Chatchat icon indicating copy to clipboard operation
Langchain-Chatchat copied to clipboard

TypeError: ChatGLM._call() got an unexpected keyword argument 'stop'

Open CyanMystery opened this issue 2 years ago • 9 comments

No sentence-transformers model found with name D:\DevProject\langchain-ChatGLM\GanymedeNil\text2vec-large-chinese. Creating a new one with MEAN pooling. ┌───────────────────── Traceback (most recent call last) ─────────────────────┐ │ D:\DevProject\langchain-ChatGLM\llama_index\examples\paul_graham_essay\llam │ │ a_index_demo.py:228 in │ │ │ │ 225 # for resp, history in llm._call(prompt, streaming=True): │ │ 226 # print(resp[last_print_len:], end="", flush=True) │ │ 227 # last_print_len = len(resp) │ │ > 228 response = query_engine.query(prompt) │ │ 229 print(response) │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\indices\query\base.py:20 in query │ │ │ │ 17 │ def query(self, str_or_query_bundle: QueryType) -> RESPONSE_TYPE: │ │ 18 │ │ if isinstance(str_or_query_bundle, str): │ │ 19 │ │ │ str_or_query_bundle = QueryBundle(str_or_query_bundle) │ │ > 20 │ │ return self._query(str_or_query_bundle) │ │ 21 │ │ │ 22 │ async def aquery(self, str_or_query_bundle: QueryType) -> RESPONSE │ │ 23 │ │ if isinstance(str_or_query_bundle, str): │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\query_engine\retriever_query_engine.py:145 in │ │ _query │ │ │ │ 142 │ │ ) │ │ 143 │ │ │ │ 144 │ │ synth_id = self._callback_manager.on_event_start(CBEventType. │ │ > 145 │ │ response = self._response_synthesizer.synthesize( │ │ 146 │ │ │ query_bundle=query_bundle, │ │ 147 │ │ │ nodes=nodes, │ │ 148 │ │ ) │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\indices\query\response_synthesis.py:172 in │ │ synthesize │ │ │ │ 169 │ │ │ │ 170 │ │ if self._response_mode != ResponseMode.NO_TEXT: │ │ 171 │ │ │ assert self._response_builder is not None │ │ > 172 │ │ │ response_str = self._response_builder.get_response( │ │ 173 │ │ │ │ query_str=query_bundle.query_str, │ │ 174 │ │ │ │ text_chunks=text_chunks, │ │ 175 │ │ │ │ **self._response_kwargs, │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\token_counter\token_counter.py:78 in │ │ wrapped_llm_predict │ │ │ │ 75 │ │ │ │ 76 │ │ def wrapped_llm_predict(_self: Any, *args: Any, **kwargs: Any) │ │ 77 │ │ │ with wrapper_logic(_self): │ │ > 78 │ │ │ │ f_return_val = f(_self, *args, **kwargs) │ │ 79 │ │ │ │ │ 80 │ │ │ return f_return_val │ │ 81 │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\indices\response\response_builder.py:430 in │ │ get_response │ │ │ │ 427 │ │ │ index: index_builder.docstore.get_node(node_id) │ │ 428 │ │ │ for index, node_id in root_node_ids.items() │ │ 429 │ │ } │ │ > 430 │ │ return self._get_tree_response_over_root_nodes( │ │ 431 │ │ │ query_str, prev_response, root_nodes, text_qa_template │ │ 432 │ │ ) │ │ 433 │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\indices\response\response_builder.py:481 in │ │ _get_tree_response_over_root_nodes │ │ │ │ 478 │ │ │ node_list, prompt=text_qa_template │ │ 479 │ │ ) │ │ 480 │ │ # NOTE: the final response could be a string or a stream │ │ > 481 │ │ response = super().get_response( │ │ 482 │ │ │ query_str=query_str, │ │ 483 │ │ │ text_chunks=[node_text], │ │ 484 │ │ │ prev_response=prev_response, │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\token_counter\token_counter.py:78 in │ │ wrapped_llm_predict │ │ │ │ 75 │ │ │ │ 76 │ │ def wrapped_llm_predict(_self: Any, *args: Any, **kwargs: Any) │ │ 77 │ │ │ with wrapper_logic(_self): │ │ > 78 │ │ │ │ f_return_val = f(_self, *args, **kwargs) │ │ 79 │ │ │ │ │ 80 │ │ │ return f_return_val │ │ 81 │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\indices\response\response_builder.py:172 in │ │ get_response │ │ │ │ 169 │ │ │ if prev_response_obj is None: │ │ 170 │ │ │ │ # if this is the first chunk, and text chunk already │ │ 171 │ │ │ │ # is an answer, then return it │ │ > 172 │ │ │ │ response = self._give_response_single( │ │ 173 │ │ │ │ │ query_str, │ │ 174 │ │ │ │ │ text_chunk, │ │ 175 │ │ │ │ ) │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\indices\response\response_builder.py:212 in │ │ _give_response_single │ │ │ │ 209 │ │ │ │ ( │ │ 210 │ │ │ │ │ response, │ │ 211 │ │ │ │ │ formatted_prompt, │ │ > 212 │ │ │ │ ) = self._service_context.llm_predictor.predict( │ │ 213 │ │ │ │ │ text_qa_template, │ │ 214 │ │ │ │ │ context_str=cur_text_chunk, │ │ 215 │ │ │ │ ) │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\llm_predictor\base.py:230 in predict │ │ │ │ 227 │ │ │ │ 228 │ │ """ │ │ 229 │ │ formatted_prompt = prompt.format(llm=self._llm, **prompt_args │ │ > 230 │ │ llm_prediction = self._predict(prompt, **prompt_args) │ │ 231 │ │ logger.debug(llm_prediction) │ │ 232 │ │ │ │ 233 │ │ # We assume that the value of formatted_prompt is exactly the │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\llm_predictor\base.py:204 in _predict │ │ │ │ 201 │ │ # langchain does the same formatting under the hood │ │ 202 │ │ full_prompt_args = prompt.get_full_format_args(prompt_args) │ │ 203 │ │ if self.retry_on_throttling: │ │ > 204 │ │ │ llm_prediction = retry_on_exceptions_with_backoff( │ │ 205 │ │ │ │ lambda: llm_chain.predict(**full_prompt_args), │ │ 206 │ │ │ │ [ │ │ 207 │ │ │ │ │ ErrorToRetry(openai.error.RateLimitError), │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\utils.py:177 in retry_on_exceptions_with_backoff │ │ │ │ 174 │ │ │ 175 │ while True: │ │ 176 │ │ try: │ │ > 177 │ │ │ return lambda_fn() │ │ 178 │ │ except exception_class_tuples as e: │ │ 179 │ │ │ traceback.print_exc() │ │ 180 │ │ │ tries += 1 │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\llama_index-0.6 │ │ .1-py3.10.egg\llama_index\llm_predictor\base.py:205 in │ │ │ │ 202 │ │ full_prompt_args = prompt.get_full_format_args(prompt_args) │ │ 203 │ │ if self.retry_on_throttling: │ │ 204 │ │ │ llm_prediction = retry_on_exceptions_with_backoff( │ │ > 205 │ │ │ │ lambda: llm_chain.predict(**full_prompt_args), │ │ 206 │ │ │ │ [ │ │ 207 │ │ │ │ │ ErrorToRetry(openai.error.RateLimitError), │ │ 208 │ │ │ │ │ ErrorToRetry(openai.error.ServiceUnavailableError │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\chain │ │ s\llm.py:213 in predict │ │ │ │ 210 │ │ │ │ │ │ 211 │ │ │ │ completion = llm.predict(adjective="funny") │ │ 212 │ │ """ │ │ > 213 │ │ return self(kwargs, callbacks=callbacks)[self.output_key] │ │ 214 │ │ │ 215 │ async def apredict(self, callbacks: Callbacks = None, **kwargs: A │ │ 216 │ │ """Format prompt with kwargs and pass to LLM. │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\chain │ │ s\base.py:140 in call │ │ │ │ 137 │ │ │ ) │ │ 138 │ │ except (KeyboardInterrupt, Exception) as e: │ │ 139 │ │ │ run_manager.on_chain_error(e) │ │ > 140 │ │ │ raise e │ │ 141 │ │ run_manager.on_chain_end(outputs) │ │ 142 │ │ return self.prep_outputs(inputs, outputs, return_only_outputs │ │ 143 │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\chain │ │ s\base.py:134 in call │ │ │ │ 131 │ │ ) │ │ 132 │ │ try: │ │ 133 │ │ │ outputs = ( │ │ > 134 │ │ │ │ self._call(inputs, run_manager=run_manager) │ │ 135 │ │ │ │ if new_arg_supported │ │ 136 │ │ │ │ else self._call(inputs) │ │ 137 │ │ │ ) │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\chain │ │ s\llm.py:69 in _call │ │ │ │ 66 │ │ inputs: Dict[str, Any], │ │ 67 │ │ run_manager: Optional[CallbackManagerForChainRun] = None, │ │ 68 │ ) -> Dict[str, str]: │ │ > 69 │ │ response = self.generate([inputs], run_manager=run_manager) │ │ 70 │ │ return self.create_outputs(response)[0] │ │ 71 │ │ │ 72 │ def generate( │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\chain │ │ s\llm.py:79 in generate │ │ │ │ 76 │ ) -> LLMResult: │ │ 77 │ │ """Generate LLM result from inputs.""" │ │ 78 │ │ prompts, stop = self.prep_prompts(input_list, run_manager=run │ │ > 79 │ │ return self.llm.generate_prompt( │ │ 80 │ │ │ prompts, stop, callbacks=run_manager.get_child() if run_m │ │ 81 │ │ ) │ │ 82 │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\llms\ │ │ base.py:127 in generate_prompt │ │ │ │ 124 │ │ callbacks: Callbacks = None, │ │ 125 │ ) -> LLMResult: │ │ 126 │ │ prompt_strings = [p.to_string() for p in prompts] │ │ > 127 │ │ return self.generate(prompt_strings, stop=stop, callbacks=cal │ │ 128 │ │ │ 129 │ async def agenerate_prompt( │ │ 130 │ │ self, │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\llms\ │ │ base.py:176 in generate │ │ │ │ 173 │ │ │ │ ) │ │ 174 │ │ │ except (KeyboardInterrupt, Exception) as e: │ │ 175 │ │ │ │ run_manager.on_llm_error(e) │ │ > 176 │ │ │ │ raise e │ │ 177 │ │ │ run_manager.on_llm_end(output) │ │ 178 │ │ │ return output │ │ 179 │ │ params = self.dict() │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\llms\ │ │ base.py:170 in generate │ │ │ │ 167 │ │ │ ) │ │ 168 │ │ │ try: │ │ 169 │ │ │ │ output = ( │ │ > 170 │ │ │ │ │ self._generate(prompts, stop=stop, run_manager=ru │ │ 171 │ │ │ │ │ if new_arg_supported │ │ 172 │ │ │ │ │ else self._generate(prompts, stop=stop) │ │ 173 │ │ │ │ ) │ │ │ │ D:.VitualEnvs\study_ai\langchain-ChatGLM\lib\site-packages\langchain\llms\ │ │ base.py:379 in _generate │ │ │ │ 376 │ │ │ text = ( │ │ 377 │ │ │ │ self._call(prompt, stop=stop, run_manager=run_manager │ │ 378 │ │ │ │ if new_arg_supported │ │ > 379 │ │ │ │ else self._call(prompt, stop=stop) │ │ 380 │ │ │ ) │ │ 381 │ │ │ generations.append([Generation(text=text)]) │ │ 382 │ │ return LLMResult(generations=generations) │ └─────────────────────────────────────────────────────────────────────────────┘ TypeError: ChatGLM._call() got an unexpected keyword argument 'stop'

CyanMystery avatar May 08 '23 12:05 CyanMystery

my env: langchain==0.0.161

CyanMystery avatar May 08 '23 12:05 CyanMystery

后续版本中有对改函数参数的修改,需把输入变量stop去掉

imClumsyPanda avatar May 08 '23 15:05 imClumsyPanda

后续版本中有对改函数参数的修改,需把输入变量stop去掉

╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮ │ E:\langchain-ChatGLM\llama_index\query_index.py:273 in │ │ │ │ 270 │ response = query_engine.query(prompt_str) │ │ 271 │ return response │ │ 272 │ │ ❱ 273 response = construct_index() │ │ 274 print(response) │ │ │ │ E:\langchain-ChatGLM\llama_index\query_index.py:270 in construct_index │ │ │ │ 267 │ ) │ │ 268 │ # 获得query response │ │ 269 │ prompt_str = "What did the author do growing up?" │ │ ❱ 270 │ response = query_engine.query(prompt_str) │ │ 271 │ return response │ │ 272 │ │ 273 response = construct_index() │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\indices\query\base.py:20 in query │ │ │ │ 17 │ def query(self, str_or_query_bundle: QueryType) -> RESPONSE_TYPE: │ │ 18 │ │ if isinstance(str_or_query_bundle, str): │ │ 19 │ │ │ str_or_query_bundle = QueryBundle(str_or_query_bundle) │ │ ❱ 20 │ │ return self._query(str_or_query_bundle) │ │ 21 │ │ │ 22 │ async def aquery(self, str_or_query_bundle: QueryType) -> RESPONSE_TYPE: │ │ 23 │ │ if isinstance(str_or_query_bundle, str): │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\query_engine\retriever_query_engine.py:145 in │ │ _query │ │ │ │ 142 │ │ ) │ │ 143 │ │ │ │ 144 │ │ synth_id = self._callback_manager.on_event_start(CBEventType.SYNTHESIZE) │ │ ❱ 145 │ │ response = self._response_synthesizer.synthesize( │ │ 146 │ │ │ query_bundle=query_bundle, │ │ 147 │ │ │ nodes=nodes, │ │ 148 │ │ ) │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\indices\query\response_synthesis.py:174 in │ │ synthesize │ │ │ │ 171 │ │ │ │ 172 │ │ if self._response_mode != ResponseMode.NO_TEXT: │ │ 173 │ │ │ assert self._response_builder is not None │ │ ❱ 174 │ │ │ response_str = self._response_builder.get_response( │ │ 175 │ │ │ │ query_str=query_bundle.query_str, │ │ 176 │ │ │ │ text_chunks=text_chunks, │ │ 177 │ │ │ │ **self._response_kwargs, │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\indices\response\response_builder.py:349 in │ │ get_response │ │ │ │ 346 │ │ │ new_texts = self._service_context.prompt_helper.compact_text_chunks( │ │ 347 │ │ │ │ max_prompt, text_chunks │ │ 348 │ │ │ ) │ │ ❱ 349 │ │ │ response = super().get_response( │ │ 350 │ │ │ │ query_str=query_str, text_chunks=new_texts, prev_response=prev_response │ │ 351 │ │ │ ) │ │ 352 │ │ return response │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\token_counter\token_counter.py:78 in │ │ wrapped_llm_predict │ │ │ │ 75 │ │ │ │ 76 │ │ def wrapped_llm_predict(_self: Any, *args: Any, **kwargs: Any) -> Any: │ │ 77 │ │ │ with wrapper_logic(_self): │ │ ❱ 78 │ │ │ │ f_return_val = f(_self, *args, **kwargs) │ │ 79 │ │ │ │ │ 80 │ │ │ return f_return_val │ │ 81 │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\indices\response\response_builder.py:172 in │ │ get_response │ │ │ │ 169 │ │ │ if prev_response_obj is None: │ │ 170 │ │ │ │ # if this is the first chunk, and text chunk already │ │ 171 │ │ │ │ # is an answer, then return it │ │ ❱ 172 │ │ │ │ response = self._give_response_single( │ │ 173 │ │ │ │ │ query_str, │ │ 174 │ │ │ │ │ text_chunk, │ │ 175 │ │ │ │ ) │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\indices\response\response_builder.py:212 in │ │ _give_response_single │ │ │ │ 209 │ │ │ │ ( │ │ 210 │ │ │ │ │ response, │ │ 211 │ │ │ │ │ formatted_prompt, │ │ ❱ 212 │ │ │ │ ) = self._service_context.llm_predictor.predict( │ │ 213 │ │ │ │ │ text_qa_template, │ │ 214 │ │ │ │ │ context_str=cur_text_chunk, │ │ 215 │ │ │ │ ) │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\llm_predictor\base.py:230 in predict │ │ │ │ 227 │ │ │ │ 228 │ │ """ │ │ 229 │ │ formatted_prompt = prompt.format(llm=self._llm, **prompt_args) │ │ ❱ 230 │ │ llm_prediction = self._predict(prompt, **prompt_args) │ │ 231 │ │ logger.debug(llm_prediction) │ │ 232 │ │ │ │ 233 │ │ # We assume that the value of formatted_prompt is exactly the thing │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\llm_predictor\base.py:204 in _predict │ │ │ │ 201 │ │ # langchain does the same formatting under the hood │ │ 202 │ │ full_prompt_args = prompt.get_full_format_args(prompt_args) │ │ 203 │ │ if self.retry_on_throttling: │ │ ❱ 204 │ │ │ llm_prediction = retry_on_exceptions_with_backoff( │ │ 205 │ │ │ │ lambda: llm_chain.predict(**full_prompt_args), │ │ 206 │ │ │ │ [ │ │ 207 │ │ │ │ │ ErrorToRetry(openai.error.RateLimitError), │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\utils.py:177 in retry_on_exceptions_with_backoff │ │ │ │ 174 │ │ │ 175 │ while True: │ │ 176 │ │ try: │ │ ❱ 177 │ │ │ return lambda_fn() │ │ 178 │ │ except exception_class_tuples as e: │ │ 179 │ │ │ traceback.print_exc() │ │ 180 │ │ │ tries += 1 │ │ │ │ E:\langchain-ChatGLM\llama_index\llama_index\llm_predictor\base.py:205 in │ │ │ │ 202 │ │ full_prompt_args = prompt.get_full_format_args(prompt_args) │ │ 203 │ │ if self.retry_on_throttling: │ │ 204 │ │ │ llm_prediction = retry_on_exceptions_with_backoff( │ │ ❱ 205 │ │ │ │ lambda: llm_chain.predict(**full_prompt_args), │ │ 206 │ │ │ │ [ │ │ 207 │ │ │ │ │ ErrorToRetry(openai.error.RateLimitError), │ │ 208 │ │ │ │ │ ErrorToRetry(openai.error.ServiceUnavailableError), │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\chains\llm.py:213 in predict │ │ │ │ 210 │ │ │ │ │ │ 211 │ │ │ │ completion = llm.predict(adjective="funny") │ │ 212 │ │ """ │ │ ❱ 213 │ │ return self(kwargs, callbacks=callbacks)[self.output_key] │ │ 214 │ │ │ 215 │ async def apredict(self, callbacks: Callbacks = None, **kwargs: Any) -> str: │ │ 216 │ │ """Format prompt with kwargs and pass to LLM. │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\chains\base.py:140 in call │ │ │ │ 137 │ │ │ ) │ │ 138 │ │ except (KeyboardInterrupt, Exception) as e: │ │ 139 │ │ │ run_manager.on_chain_error(e) │ │ ❱ 140 │ │ │ raise e │ │ 141 │ │ run_manager.on_chain_end(outputs) │ │ 142 │ │ return self.prep_outputs(inputs, outputs, return_only_outputs) │ │ 143 │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\chains\base.py:134 in call │ │ │ │ 131 │ │ ) │ │ 132 │ │ try: │ │ 133 │ │ │ outputs = ( │ │ ❱ 134 │ │ │ │ self._call(inputs, run_manager=run_manager) │ │ 135 │ │ │ │ if new_arg_supported │ │ 136 │ │ │ │ else self._call(inputs) │ │ 137 │ │ │ ) │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\chains\llm.py:69 in _call │ │ │ │ 66 │ │ inputs: Dict[str, Any], │ │ 67 │ │ run_manager: Optional[CallbackManagerForChainRun] = None, │ │ 68 │ ) -> Dict[str, str]: │ │ ❱ 69 │ │ response = self.generate([inputs], run_manager=run_manager) │ │ 70 │ │ return self.create_outputs(response)[0] │ │ 71 │ │ │ 72 │ def generate( │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\chains\llm.py:79 in generate │ │ │ │ 76 │ ) -> LLMResult: │ │ 77 │ │ """Generate LLM result from inputs.""" │ │ 78 │ │ prompts = self.prep_prompts(input_list, run_manager=run_manager) │ │ ❱ 79 │ │ return self.llm.generate_prompt( │ │ 80 │ │ │ prompts, callbacks=run_manager.get_child() if run_manager else None │ │ 81 │ │ ) │ │ 82 │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\llms\base.py:124 in generate_prompt │ │ │ │ 121 │ │ callbacks: Callbacks = None, │ │ 122 │ ) -> LLMResult: │ │ 123 │ │ prompt_strings = [p.to_string() for p in prompts] │ │ ❱ 124 │ │ return self.generate(prompt_strings, callbacks=callbacks) │ │ 125 │ │ │ 126 │ async def agenerate_prompt( │ │ 127 │ │ self, │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\llms\base.py:171 in generate │ │ │ │ 168 │ │ │ │ ) │ │ 169 │ │ │ except (KeyboardInterrupt, Exception) as e: │ │ 170 │ │ │ │ run_manager.on_llm_error(e) │ │ ❱ 171 │ │ │ │ raise e │ │ 172 │ │ │ run_manager.on_llm_end(output) │ │ 173 │ │ │ return output │ │ 174 │ │ params = self.dict() │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\llms\base.py:165 in generate │ │ │ │ 162 │ │ │ ) │ │ 163 │ │ │ try: │ │ 164 │ │ │ │ output = ( │ │ ❱ 165 │ │ │ │ │ self._generate(prompts, run_manager=run_manager) │ │ 166 │ │ │ │ │ if new_arg_supported │ │ 167 │ │ │ │ │ else self._generate(prompts) │ │ 168 │ │ │ │ ) │ │ │ │ E:.venvs\langchain-ChatGLM\lib\site-packages\langchain\llms\base.py:376 in _generate │ │ │ │ 373 │ │ │ │ if new_arg_supported │ │ 374 │ │ │ │ else self._call(prompt) │ │ 375 │ │ │ ) │ │ ❱ 376 │ │ │ generations.append([Generation(text=text)]) │ │ 377 │ │ return LLMResult(generations=generations) │ │ 378 │ │ │ 379 │ async def _agenerate( │ │ │ │ E:\langchain-ChatGLM\pydantic\main.py:341 in pydantic.main.BaseModel.init │ │ │ │ [Errno 2] No such file or directory: 'E:\langchain-ChatGLM\pydantic\main.py' │ ╰──────────────────────────────────────────────────────────────────────────────────────────────────╯ ValidationError: 1 validation error for Generation text str type expected (type=type_error.str)

(langchain-ChatGLM) E:\langchain-ChatGLM>pip install pyadantic WARNING: Ignoring invalid distribution -ip (e:.venvs\langchain-chatglm\lib\site-packages) WARNING: Ignoring invalid distribution -ip (e:.venvs\langchain-chatglm\lib\site-packages) ERROR: Could not find a version that satisfies the requirement pyadantic (from versions: none) ERROR: No matching distribution found for pyadantic WARNING: Ignoring invalid distribution -ip (e:.venvs\langchain-chatglm\lib\site-packages) WARNING: Ignoring invalid distribution -ip (e:.venvs\langchain-chatglm\lib\site-packages) WARNING: Ignoring invalid distribution -ip (e:.venvs\langchain-chatglm\lib\site-packages) WARNING: You are using pip version 22.0.4; however, version 23.1.2 is available. You should consider upgrading via the 'E:.venvs\langchain-ChatGLM\Scripts\python.exe -m pip install --upgrade pip' command.

(langchain-ChatGLM) E:\langchain-ChatGLM>pip install pydantic WARNING: Ignoring invalid distribution -ip (e:.venvs\langchain-chatglm\lib\site-packages) WARNING: Ignoring invalid distribution -ip (e:.venvs\langchain-chatglm\lib\site-packages) Requirement already satisfied: pydantic in e:.venvs\langchain-chatglm\lib\site-packages (1.10.7) Requirement already satisfied: typing-extensions>=4.2.0 in e:.venvs\langchain-chatglm\lib\site-packages (from pydantic) (4.5.0)

CyanMystery avatar May 09 '23 01:05 CyanMystery

后续版本中有对改函数参数的修改,需把输入变量stop去掉

我在langchain\llms\base.py 和langchain\chain\llm.py把stop全部去掉或者注释了 接着就产生以上报错 会不会跟llama_index的版本也有关系 langchain requirements.txt 要求langchain0.0.146 但是不懂对应的llama_index版本多少,这对langchain有版本要求

CyanMystery avatar May 09 '23 01:05 CyanMystery

后续版本中有对改函数参数的修改,需把输入变量stop去掉

我在langchain\llms\base.py 和langchain\chain\llm.py把stop全部去掉或者注释了 接着就产生以上报错 会不会跟llama_index的版本也有关系 langchain requirements.txt 要求langchain0.0.146 但是不懂对应的llama_index版本多少,这对langchain有版本要求

CyanMystery avatar May 09 '23 01:05 CyanMystery

后续版本中有对改函数参数的修改,需把输入变量stop去掉

我在langchain\llms\base.py 和langchain\chain\llm.py把stop全部去掉或者注释了 接着就产生以上报错 会不会跟llama_index的版本也有关系 langchain requirements.txt 要求langchain0.0.146 但是不懂对应的llama_index版本多少,这对langchain有版本要求

我llama_index 版本: 0.6.0

CyanMystery avatar May 09 '23 01:05 CyanMystery

stop这个问题已经解决了,在llm的_call方法要加一个stop的默认参数就行了,不过后面那个类型问题还没解决 Generation这个类继承了pydantic的BaseModel 而text要求的的是str类型 这里有时候给的是一个generator 有时候又是一个tuple就很离谱

CyanMystery avatar May 12 '23 05:05 CyanMystery

我遇到了一样的问题 怎么解决呢

Zjq9409 avatar May 17 '23 06:05 Zjq9409

same issue here

Valdanitooooo avatar May 17 '23 09:05 Valdanitooooo

解决办法:在你的_call()方法中添加一个默认的stop参数:_call(stop=None),stop参数类型可以参考源码,我填的跟源码给的是一模一样的。另外还要注意,该方法只能return str类型

CyanMystery avatar Jun 21 '23 09:06 CyanMystery

Entering new AgentExecutor chain...

{
    "action": "Search Pinecone",
    "action_input": "ProjectWe_Virtual_Assistant"
}
```D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\llm.py:321: UserWarning: The predict_and_parse method is deprecated, instead pass an 
output parser directly to LLMChain.
  warnings.warn(
127.0.0.1 - - [03/Nov/2023 21:08:11] "POST /send_message HTTP/1.1" 500 -
Traceback (most recent call last):
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask\app.py", line 1478, in __call__
    return self.wsgi_app(environ, start_response)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask\app.py", line 1458, in wsgi_app
    response = self.handle_exception(e)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask_cors\extension.py", line 176, in wrapped_function
    return cors_after_request(app.make_response(f(*args, **kwargs)))
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask\app.py", line 1455, in wsgi_app
    response = self.full_dispatch_request()
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask\app.py", line 869, in full_dispatch_request
    rv = self.handle_user_exception(e)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask_cors\extension.py", line 176, in wrapped_function
    return cors_after_request(app.make_response(f(*args, **kwargs)))
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask\app.py", line 867, in full_dispatch_request
    rv = self.dispatch_request()
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\flask\app.py", line 852, in dispatch_request
    return self.ensure_sync(self.view_functions[rule.endpoint])(**view_args)
  File "d:\mojosolo_projects\mojobob\flow.py", line 121, in ask
    response = chatagent(message)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 310, in __call__
    raise e
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 304, in __call__
    self._call(inputs, run_manager=run_manager)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\agents\agent.py", line 1146, in _call
    next_step_output = self._take_next_step(
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\agents\agent.py", line 996, in _take_next_step
    observation = tool.run(
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\tools\base.py", line 365, in run
    raise e
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\tools\base.py", line 337, in run
    self._run(*tool_args, run_manager=run_manager, **tool_kwargs)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\tools\base.py", line 510, in _run
    self.func(
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 505, in run
    return self(args[0], callbacks=callbacks, tags=tags, metadata=metadata)[
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 310, in __call__
    raise e
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 304, in __call__
    self._call(inputs, run_manager=run_manager)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\router\base.py", line 91, in _call
    route = self.router_chain.route(inputs, callbacks=callbacks)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\router\base.py", line 39, in route
    result = self(inputs, callbacks=callbacks)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 310, in __call__
    raise e
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 304, in __call__
    self._call(inputs, run_manager=run_manager)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\router\llm_router.py", line 58, in _call
    self.llm_chain.predict_and_parse(callbacks=callbacks, **inputs),
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\llm.py", line 325, in predict_and_parse
    result = self.predict(callbacks=callbacks, **kwargs)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\llm.py", line 298, in predict
    return self(kwargs, callbacks=callbacks)[self.output_key]
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 310, in __call__
    raise e
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 304, in __call__
    self._call(inputs, run_manager=run_manager)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\llm.py", line 108, in _call
    response = self.generate([inputs], run_manager=run_manager)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\llm.py", line 127, in generate
    results = self.llm.bind(stop=stop, **self.llm_kwargs).batch(
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\schema\runnable\base.py", line 2538, in batch
    return self.bound.batch(
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\schema\runnable\base.py", line 320, in batch
    return cast(List[Output], [invoke(inputs[0], configs[0])])
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\schema\runnable\base.py", line 316, in invoke
    return self.invoke(input, config, **kwargs)
  File "D:\mojosolo_projects\mojobob\.venv\lib\site-packages\langchain\chains\base.py", line 87, in invoke
    return self(
TypeError: __call__() got an unexpected keyword argument 'stop'
Why I am facing this issue, two days ago same code is running perfectly

MuazAshraf avatar Nov 03 '23 16:11 MuazAshraf