__init__(self, str namespace="llama") | llama_ros.llama_client_node.LlamaClientNode | |
_action_client | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_action_done | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_action_done_cond | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_action_result | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_action_status | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_callback_group | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_detokenize_srv_client | llama_ros.llama_client_node.LlamaClientNode | protected |
_embeddings_srv_client | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_executor | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_feedback_callback(self, feedback) | llama_ros.llama_client_node.LlamaClientNode | protected |
_format_chat_srv_client | llama_ros.llama_client_node.LlamaClientNode | protected |
_get_metadata_srv_client | llama_ros.llama_client_node.LlamaClientNode | protected |
_get_result_callback | llama_ros.llama_client_node.LlamaClientNode | protected |
_get_result_callback(self, future) | llama_ros.llama_client_node.LlamaClientNode | protected |
_goal_handle | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_goal_handle_lock | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_goal_response_callback | llama_ros.llama_client_node.LlamaClientNode | protected |
_goal_response_callback(self, future) | llama_ros.llama_client_node.LlamaClientNode | protected |
_instance | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_lock | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_partial_results | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_rerank_srv_client | llama_ros.llama_client_node.LlamaClientNode | protected |
_spin_thread | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
_tokenize_srv_client | llama_ros.llama_client_node.LlamaClientNode | protectedstatic |
cancel_generate_text(self) | llama_ros.llama_client_node.LlamaClientNode | |
detokenize(self, Detokenize.Request req) | llama_ros.llama_client_node.LlamaClientNode | |
format_chat_prompt(self, FormatChatMessages.Request req) | llama_ros.llama_client_node.LlamaClientNode | |
generate_embeddings(self, GenerateEmbeddings.Request req) | llama_ros.llama_client_node.LlamaClientNode | |
generate_response(self, GenerateResponse.Goal goal, Callable feedback_cb=None, bool stream=False) | llama_ros.llama_client_node.LlamaClientNode | |
get_instance() | llama_ros.llama_client_node.LlamaClientNode | static |
get_metadata(self, GetMetadata.Request req) | llama_ros.llama_client_node.LlamaClientNode | |
rerank_documents(self, RerankDocuments.Request req) | llama_ros.llama_client_node.LlamaClientNode | |
tokenize(self, Tokenize.Request req) | llama_ros.llama_client_node.LlamaClientNode | |