_convert_content(self, Union[Dict[str, str], str, List[str], List[Dict[str, str]]] content) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_convert_message_to_dict(self, BaseMessage message) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_create_action_goal(self, str prompt, Optional[List[str]] stop=None, Optional[str] image_url=None, Optional[np.ndarray] image=None, Optional[str] tools_grammar=None, **kwargs) | llama_ros.langchain.llama_ros_common.LlamaROSCommon | protected |
_create_chat_generations(self, GenerateResponse.Result response, str method) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_default_params(self) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_extract_data_from_messages(self, List[BaseMessage] messages) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_generate(self, List[BaseMessage] messages, Optional[List[str]] stop=None, Optional[CallbackManagerForLLMRun] run_manager=None, **Any kwargs) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_generate_prompt(self, List[dict[str, str]] messages, **kwargs) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_llm_type(self) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
_stream(self, List[BaseMessage] messages, Optional[List[str]] stop=None, Optional[CallbackManagerForLLMRun] run_manager=None, **Any kwargs) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | protected |
bind_tools(self, Sequence[Union[Dict[str, Any], Type[BaseModel], Callable, BaseTool]] tools, *, Optional[Union[dict, str, Literal["auto", "all", "one", "any"], bool]] tool_choice="auto", Literal["function_calling", "json_schema", "json_mode"] method="function_calling", **Any kwargs) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | |
cancel(self) | llama_ros.langchain.llama_ros_common.LlamaROSCommon | |
cv_bridge | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
dry_allowed_length | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
dry_base | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
dry_multiplier | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
dry_penalty_last_n | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
dry_sequence_breakers | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
dynatemp_exponent | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
dynatemp_range | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
grammar | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
grammar_schema | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
ignore_eos | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
jinja_env | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | static |
llama_client | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
logit_bias | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
min_keep | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
min_p | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
mirostat | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
mirostat_eta | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
mirostat_tau | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
model_metadata | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
n_prev | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
n_probs | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
penalty_freq | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
penalty_last_n | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
penalty_present | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
penalty_prompt_tokens | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
penalty_repeat | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
samplers_sequence | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
temp | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
top_k | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
top_p | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
typical_p | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
use_default_template | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | static |
use_gguf_template | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | static |
use_penalty_prompt_tokens | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
validate_environment(cls, Dict values) | llama_ros.langchain.llama_ros_common.LlamaROSCommon | |
with_structured_output(self, Optional[Union[Dict, Type[BaseModel], Type]] schema=None, *, bool include_raw=False, Literal["function_calling", "json_schema", "json_mode"] method="function_calling", **Any kwargs) | llama_ros.langchain.chat_llama_ros.ChatLlamaROS | |
xtc_probability | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |
xtc_threshold | llama_ros.langchain.llama_ros_common.LlamaROSCommon | static |