Updated Spanish translation
This commit is contained in:
parent
6c851784e2
commit
57fbf397c3
205
po/es.po
205
po/es.po
@ -111,6 +111,8 @@ msgid ""
|
||||
"Removed DOCX compatibility temporally due to error with python-lxml "
|
||||
"dependency"
|
||||
msgstr ""
|
||||
"Removida compatibilidad con DOCX temporalmente debido a un error con la "
|
||||
"dependencia python-lxml"
|
||||
|
||||
#: data/com.jeffser.Alpaca.metainfo.xml.in:77
|
||||
#: data/com.jeffser.Alpaca.metainfo.xml.in:107
|
||||
@ -763,11 +765,11 @@ msgstr "Añadido reconocimiento de imagenes (modelo llava)"
|
||||
|
||||
#: src/window.py:137
|
||||
msgid "This video does not have any transcriptions"
|
||||
msgstr ""
|
||||
msgstr "Este video no tiene transcripciones"
|
||||
|
||||
#: src/window.py:138
|
||||
msgid "This video is not available"
|
||||
msgstr ""
|
||||
msgstr "Este video no está disponible"
|
||||
|
||||
#: src/window.py:141
|
||||
msgid "Please select a model before chatting"
|
||||
@ -834,7 +836,7 @@ msgstr "Ejecutar en el fondo"
|
||||
|
||||
#: src/window.py:384
|
||||
msgid "Stop Creating '{}'"
|
||||
msgstr ""
|
||||
msgstr "Parar la creación de '{}'"
|
||||
|
||||
#: src/window.py:421
|
||||
#, fuzzy
|
||||
@ -858,15 +860,15 @@ msgstr "Enviar Mensaje"
|
||||
|
||||
#: src/window.py:661
|
||||
msgid "Missing Image"
|
||||
msgstr ""
|
||||
msgstr "Imagen no Encontrada"
|
||||
|
||||
#: src/window.py:677
|
||||
msgid "Missing image"
|
||||
msgstr ""
|
||||
msgstr "Imagen no Encontrada"
|
||||
|
||||
#: src/window.py:757
|
||||
msgid "Remove '{} ({})'"
|
||||
msgstr ""
|
||||
msgstr "Remover '{} ({})'"
|
||||
|
||||
#: src/window.py:969
|
||||
msgid "Task Complete"
|
||||
@ -886,7 +888,7 @@ msgstr "No se pudo descargar el modelo '{}' debido a un error de red"
|
||||
|
||||
#: src/window.py:1008
|
||||
msgid "Stop Pulling '{} ({})'"
|
||||
msgstr ""
|
||||
msgstr "Parar Descarga de '{} ({})'"
|
||||
|
||||
#: src/window.ui:52
|
||||
msgid "Menu"
|
||||
@ -935,7 +937,7 @@ msgstr "URL de la instancia remota"
|
||||
|
||||
#: src/window.ui:312
|
||||
msgid "Bearer Token (Optional)"
|
||||
msgstr ""
|
||||
msgstr "Bearer Token (Opcional)"
|
||||
|
||||
#: src/window.ui:322
|
||||
#, fuzzy
|
||||
@ -1043,21 +1045,23 @@ msgstr "Modelos Destacados"
|
||||
|
||||
#: src/window.ui:664
|
||||
msgid "No Models Found"
|
||||
msgstr ""
|
||||
msgstr "Ningún modelo encontrado"
|
||||
|
||||
#: src/window.ui:665
|
||||
msgid "Try a different search"
|
||||
msgstr ""
|
||||
msgstr "Intenta una busqueda distinta"
|
||||
|
||||
#: src/window.ui:708
|
||||
msgid ""
|
||||
"By downloading this model you accept the license agreement available on the "
|
||||
"model's website."
|
||||
msgstr ""
|
||||
"Al descargar este modelo aceptas la licencia disponible en el sitio web del "
|
||||
"modelo"
|
||||
|
||||
#: src/window.ui:745
|
||||
msgid "Open with Default App"
|
||||
msgstr ""
|
||||
msgstr "Abrir con Aplicación Predeterminada"
|
||||
|
||||
#: src/window.ui:797
|
||||
msgid "Previous"
|
||||
@ -1195,43 +1199,51 @@ msgstr "Saltar línea"
|
||||
|
||||
#: src/available_models_descriptions.py:2
|
||||
msgid "Google Gemma 2 is now available in 2 sizes, 9B and 27B."
|
||||
msgstr ""
|
||||
msgstr "Google Gemma 2 ahora esta disponible en 2 tamaños, 9B y 27B."
|
||||
|
||||
#: src/available_models_descriptions.py:3
|
||||
msgid "Meta Llama 3: The most capable openly available LLM to date"
|
||||
msgstr ""
|
||||
msgstr "Meta Llama 3: El LLM abierto más capaz a esta fecha."
|
||||
|
||||
#: src/available_models_descriptions.py:4
|
||||
msgid "Qwen2 is a new series of large language models from Alibaba group"
|
||||
msgstr ""
|
||||
msgstr "Qwen2 es una nueva serie de LLM del grupo Alibaba."
|
||||
|
||||
#: src/available_models_descriptions.py:5
|
||||
msgid ""
|
||||
"An open-source Mixture-of-Experts code language model that achieves "
|
||||
"performance comparable to GPT4-Turbo in code-specific tasks."
|
||||
msgstr ""
|
||||
"Un modelo de lenguaje Mixturer-of-Experts abierto que consigue un rendimiento "
|
||||
"comparable a GPT4-Turbo en tareas especificas a codigo."
|
||||
|
||||
#: src/available_models_descriptions.py:6
|
||||
msgid ""
|
||||
"Phi-3 is a family of lightweight 3B (Mini) and 14B (Medium) state-of-the-art "
|
||||
"open models by Microsoft."
|
||||
msgstr ""
|
||||
"Phi-3 es una familia de los ultimos modelos livianos de Microsoft, 3B (Mini) "
|
||||
"y 14B (Medium)."
|
||||
|
||||
#: src/available_models_descriptions.py:7
|
||||
msgid ""
|
||||
"Aya 23, released by Cohere, is a new family of state-of-the-art, "
|
||||
"multilingual models that support 23 languages."
|
||||
msgstr ""
|
||||
"Aya 23, lanzado por Cohere, es una familia de los ultimos modelos "
|
||||
"multilingües que soportan 23 lenguajes."
|
||||
|
||||
#: src/available_models_descriptions.py:8
|
||||
msgid "The 7B model released by Mistral AI, updated to version 0.3."
|
||||
msgstr ""
|
||||
msgstr "El modelo 7B lanzado por Mistral AI, actualizado a la versión 0.3."
|
||||
|
||||
#: src/available_models_descriptions.py:9
|
||||
msgid ""
|
||||
"A set of Mixture of Experts (MoE) model with open weights by Mistral AI in "
|
||||
"8x7b and 8x22b parameter sizes."
|
||||
msgstr ""
|
||||
"Un set de modelos Mixture-of-Experts (MoE) con pesos abiertos por Mistral AI "
|
||||
"dispnible en tamaños de parametros 8x7b y 8x22b."
|
||||
|
||||
#: src/available_models_descriptions.py:10
|
||||
msgid ""
|
||||
@ -1240,18 +1252,26 @@ msgid ""
|
||||
"generation, natural language understanding, mathematical reasoning, and "
|
||||
"instruction following."
|
||||
msgstr ""
|
||||
"CodeGemma es una colección de poderosos, modelos livianos que pueden hacer "
|
||||
"una variedad de tareas de codigo como fill-in-the-middle completación de "
|
||||
"codigo, generación de codigo, comprensión de lenguaje natural, razonamiento "
|
||||
"matematico y seguimiento de instrucciones."
|
||||
|
||||
#: src/available_models_descriptions.py:11
|
||||
msgid ""
|
||||
"Command R is a Large Language Model optimized for conversational interaction "
|
||||
"and long context tasks."
|
||||
msgstr ""
|
||||
"Command R es un LLM optimizado para interacciones conversacionales y "
|
||||
"tareas que requieren un contexto largo."
|
||||
|
||||
#: src/available_models_descriptions.py:12
|
||||
msgid ""
|
||||
"Command R+ is a powerful, scalable large language model purpose-built to "
|
||||
"excel at real-world enterprise use cases."
|
||||
msgstr ""
|
||||
"Command R+ es un poderoso, escalable LLM construido con el proposito de "
|
||||
"sobresalir en usos profesionales del mundo real."
|
||||
|
||||
#: src/available_models_descriptions.py:13
|
||||
msgid ""
|
||||
@ -1259,194 +1279,262 @@ msgid ""
|
||||
"a vision encoder and Vicuna for general-purpose visual and language "
|
||||
"understanding. Updated to version 1.6."
|
||||
msgstr ""
|
||||
"🌋 LLaVA es un nuevo LLM entrenado en end-to-end que combina un encodificador "
|
||||
"visual y Vicuna para entendimiento general en lenguaje y visión. Acutalizado "
|
||||
"a la versión 1.6."
|
||||
|
||||
#: src/available_models_descriptions.py:14
|
||||
msgid ""
|
||||
"Gemma is a family of lightweight, state-of-the-art open models built by "
|
||||
"Google DeepMind. Updated to version 1.1"
|
||||
msgstr ""
|
||||
"Gemma es una familia de nuevos modelos abiertos livianos construidos por "
|
||||
"Google DeepMind. Actualizado a la versión 1.1."
|
||||
|
||||
#: src/available_models_descriptions.py:15
|
||||
msgid ""
|
||||
"Qwen 1.5 is a series of large language models by Alibaba Cloud spanning from "
|
||||
"0.5B to 110B parameters"
|
||||
msgstr ""
|
||||
"Qwen 1.5 es una serie de LLM por Alibaba Cloud que cubren parametros entre "
|
||||
"0.5B hasta 110B."
|
||||
|
||||
#: src/available_models_descriptions.py:16
|
||||
msgid ""
|
||||
"Llama 2 is a collection of foundation language models ranging from 7B to 70B "
|
||||
"parameters."
|
||||
msgstr ""
|
||||
"Llama 2 es una colección de modelos bases que cubren parametros entre 7B y "
|
||||
"70B."
|
||||
|
||||
#: src/available_models_descriptions.py:17
|
||||
msgid ""
|
||||
"A large language model that can use text prompts to generate and discuss "
|
||||
"code."
|
||||
msgstr ""
|
||||
"Un LLM que puede usar texto para generar y discutir sobre codigo."
|
||||
|
||||
#: src/available_models_descriptions.py:18
|
||||
msgid ""
|
||||
"Uncensored, 8x7b and 8x22b fine-tuned models based on the Mixtral mixture of "
|
||||
"experts models that excels at coding tasks. Created by Eric Hartford."
|
||||
msgstr ""
|
||||
"Descensurado, 8x7b y 8x22b, modelos afinados basados enn una mezcla de "
|
||||
"modelos expertos de Mixtral especializados en tareas de codigo. Creado por "
|
||||
"Eric Hartford."
|
||||
|
||||
#: src/available_models_descriptions.py:19
|
||||
msgid "Uncensored Llama 2 model by George Sung and Jarrad Hope."
|
||||
msgstr ""
|
||||
msgstr "Modelo Llama 2 descensurado por George Sung y Jarrad Hope."
|
||||
|
||||
#: src/available_models_descriptions.py:20
|
||||
msgid ""
|
||||
"DeepSeek Coder is a capable coding model trained on two trillion code and "
|
||||
"natural language tokens."
|
||||
msgstr ""
|
||||
"DeepSeek Coder en un modelo especializado en codigo, entrenado en 2 trillones "
|
||||
"de tokens de codigo y lenguaje natural."
|
||||
|
||||
#: src/available_models_descriptions.py:21
|
||||
msgid ""
|
||||
"A high-performing open embedding model with a large token context window."
|
||||
msgstr ""
|
||||
"Un modelo de integración abierto de alto rendimiento con una gran ventana de "
|
||||
"contexto de token."
|
||||
|
||||
#: src/available_models_descriptions.py:22
|
||||
msgid ""
|
||||
"Phi-2: a 2.7B language model by Microsoft Research that demonstrates "
|
||||
"outstanding reasoning and language understanding capabilities."
|
||||
msgstr ""
|
||||
"Phi-2: un modelo de lenguaje de 2.700 millones de Microsoft Research que "
|
||||
"demuestra excelentes capacidades de razonamiento y comprensión del lenguaje."
|
||||
|
||||
#: src/available_models_descriptions.py:23
|
||||
msgid ""
|
||||
"The uncensored Dolphin model based on Mistral that excels at coding tasks. "
|
||||
"Updated to version 2.8."
|
||||
msgstr ""
|
||||
"El modelo descensurado Dolphin, basado en Mistral que sobresale en tareas de "
|
||||
"codigo. Actualizado a la versión 2.8."
|
||||
|
||||
#: src/available_models_descriptions.py:24
|
||||
msgid ""
|
||||
"Mistral OpenOrca is a 7 billion parameter model, fine-tuned on top of the "
|
||||
"Mistral 7B model using the OpenOrca dataset."
|
||||
msgstr ""
|
||||
"Mistral OpenOrca es un modelo de 7 billones de parametros, afinado con base "
|
||||
"en el modelo Mistral 7B usando el dataset de OpenOrca."
|
||||
|
||||
#: src/available_models_descriptions.py:25
|
||||
msgid ""
|
||||
"A general-purpose model ranging from 3 billion parameters to 70 billion, "
|
||||
"suitable for entry-level hardware."
|
||||
msgstr ""
|
||||
"Un modelo de uso general oscilando entre 3 billones hasta 70 billones de "
|
||||
"parametros, adecuado para hardware básico."
|
||||
|
||||
#: src/available_models_descriptions.py:26
|
||||
msgid "State-of-the-art large embedding model from mixedbread.ai"
|
||||
msgstr ""
|
||||
msgstr "Modelo de integración grande de última generación de Mixedbread.ai"
|
||||
|
||||
#: src/available_models_descriptions.py:27
|
||||
msgid ""
|
||||
"Dolphin 2.9 is a new model with 8B and 70B sizes by Eric Hartford based on "
|
||||
"Llama 3 that has a variety of instruction, conversational, and coding skills."
|
||||
msgstr ""
|
||||
"Dolphin 2.9 es un modelo nuevo con tamaños de 8B y 70B hecho por "
|
||||
"Eric Hartford basado en Llama 3, tiene una variedad de instrucciones "
|
||||
"conversacionales y habilidades en código"
|
||||
|
||||
#: src/available_models_descriptions.py:28
|
||||
msgid ""
|
||||
"StarCoder2 is the next generation of transparently trained open code LLMs "
|
||||
"that comes in three sizes: 3B, 7B and 15B parameters."
|
||||
msgstr ""
|
||||
"StarCoder2 es la próxima generación de modelos de lenguaje abiertos "
|
||||
"entrenados de manera transparente, que vienen en tres tamaños: 3B, 7B y 15B "
|
||||
"parámetros."
|
||||
|
||||
#: src/available_models_descriptions.py:29
|
||||
msgid "Llama 2 based model fine tuned to improve Chinese dialogue ability."
|
||||
msgstr ""
|
||||
"Modelo basado en Llama 2 ajustado para mejorar la capacidad de diálogo en "
|
||||
"chino."
|
||||
|
||||
#: src/available_models_descriptions.py:30
|
||||
msgid ""
|
||||
"Zephyr is a series of fine-tuned versions of the Mistral and Mixtral models "
|
||||
"that are trained to act as helpful assistants."
|
||||
msgstr ""
|
||||
"Zephyr es una serie de versiones ajustadas de los modelos Mistral y Mixtral "
|
||||
"que están entrenados para actuar como asistentes útiles."
|
||||
|
||||
#: src/available_models_descriptions.py:31
|
||||
msgid "Yi 1.5 is a high-performing, bilingual language model."
|
||||
msgstr ""
|
||||
"Yi 1.5 es un modelo de lenguaje bilingüe de alto rendimiento."
|
||||
|
||||
#: src/available_models_descriptions.py:32
|
||||
msgid ""
|
||||
"The powerful family of models by Nous Research that excels at scientific "
|
||||
"discussion and coding tasks."
|
||||
msgstr ""
|
||||
"La poderosa familia de modelos de Nous Research que sobresale en discusiones "
|
||||
"científicas y tareas de programación."
|
||||
|
||||
#: src/available_models_descriptions.py:33
|
||||
msgid ""
|
||||
"General use chat model based on Llama and Llama 2 with 2K to 16K context "
|
||||
"sizes."
|
||||
msgstr ""
|
||||
"Modelo de chat de uso general basado en Llama y Llama 2 con tamaños de "
|
||||
"contexto de 2K a 16K."
|
||||
|
||||
#: src/available_models_descriptions.py:34
|
||||
msgid ""
|
||||
"Wizard Vicuna Uncensored is a 7B, 13B, and 30B parameter model based on "
|
||||
"Llama 2 uncensored by Eric Hartford."
|
||||
msgstr ""
|
||||
"Wizard Vicuna Uncensored es un modelo de 7B, 13B y 30B parámetros basado en "
|
||||
"Llama 2 sin censura por Eric Hartford."
|
||||
|
||||
#: src/available_models_descriptions.py:35
|
||||
msgid ""
|
||||
"The TinyLlama project is an open endeavor to train a compact 1.1B Llama "
|
||||
"model on 3 trillion tokens."
|
||||
msgstr ""
|
||||
"El proyecto TinyLlama es un esfuerzo abierto para entrenar un modelo "
|
||||
"compacto de Llama de 1.1B en 3 billones de tokens."
|
||||
|
||||
#: src/available_models_descriptions.py:36
|
||||
msgid ""
|
||||
"State of the art large language model from Microsoft AI with improved "
|
||||
"performance on complex chat, multilingual, reasoning and agent use cases."
|
||||
msgstr ""
|
||||
"Modelo de lenguaje grande de vanguardia de Microsoft AI con rendimiento "
|
||||
"mejorado en chat complejo, multilingüe, razonamiento y casos de uso de "
|
||||
"agentes."
|
||||
|
||||
#: src/available_models_descriptions.py:37
|
||||
msgid ""
|
||||
"StarCoder is a code generation model trained on 80+ programming languages."
|
||||
msgstr ""
|
||||
"StarCoder es un modelo de generación de código entrenado en más de 80 "
|
||||
"lenguajes de programación."
|
||||
|
||||
#: src/available_models_descriptions.py:38
|
||||
msgid ""
|
||||
"Codestral is Mistral AI’s first-ever code model designed for code generation "
|
||||
"tasks."
|
||||
msgstr ""
|
||||
"Codestral es el primer modelo de código de Mistral AI diseñado para tareas "
|
||||
"de generación de código."
|
||||
|
||||
#: src/available_models_descriptions.py:39
|
||||
msgid ""
|
||||
"A family of open-source models trained on a wide variety of data, surpassing "
|
||||
"ChatGPT on various benchmarks. Updated to version 3.5-0106."
|
||||
msgstr ""
|
||||
"Una familia de modelos de código abierto entrenados en una amplia variedad "
|
||||
"de datos, superando a ChatGPT en varios benchmarks. Actualizado a la "
|
||||
"versión 3.5-0106."
|
||||
|
||||
#: src/available_models_descriptions.py:40
|
||||
msgid ""
|
||||
"An experimental 1.1B parameter model trained on the new Dolphin 2.8 dataset "
|
||||
"by Eric Hartford and based on TinyLlama."
|
||||
msgstr ""
|
||||
"Un modelo experimental de 1.1B parámetros entrenado en el nuevo conjunto "
|
||||
"de datos Dolphin 2.8 por Eric Hartford y basado en TinyLlama."
|
||||
|
||||
#: src/available_models_descriptions.py:41
|
||||
msgid ""
|
||||
"OpenHermes 2.5 is a 7B model fine-tuned by Teknium on Mistral with fully "
|
||||
"open datasets."
|
||||
msgstr ""
|
||||
"OpenHermes 2.5 es un modelo de 7B ajustado por Teknium en Mistral con "
|
||||
"conjuntos de datos completamente abiertos."
|
||||
|
||||
#: src/available_models_descriptions.py:42
|
||||
msgid "State-of-the-art code generation model"
|
||||
msgstr ""
|
||||
"Modelo de generación de código de vanguardia."
|
||||
|
||||
#: src/available_models_descriptions.py:43
|
||||
msgid ""
|
||||
"Stable Code 3B is a coding model with instruct and code completion variants "
|
||||
"on par with models such as Code Llama 7B that are 2.5x larger."
|
||||
msgstr ""
|
||||
"Stable Code 3B es un modelo de codificación con variantes de instrucción y "
|
||||
"completado de código a la par con modelos como Code Llama 7B que son 2.5 "
|
||||
"veces más grandes."
|
||||
|
||||
#: src/available_models_descriptions.py:44
|
||||
msgid ""
|
||||
"A fine-tuned model based on Mistral with good coverage of domain and "
|
||||
"language."
|
||||
msgstr ""
|
||||
"Un modelo ajustado basado en Mistral con buena cobertura de dominio y "
|
||||
"lenguaje."
|
||||
|
||||
#: src/available_models_descriptions.py:45
|
||||
msgid "Model focused on math and logic problems"
|
||||
msgstr ""
|
||||
"Modelo enfocado en problemas de matemáticas y lógica."
|
||||
|
||||
#: src/available_models_descriptions.py:46
|
||||
msgid ""
|
||||
"CodeQwen1.5 is a large language model pretrained on a large amount of code "
|
||||
"data."
|
||||
msgstr ""
|
||||
"CodeQwen1.5 es un modelo de lenguaje grande preentrenado con una gran "
|
||||
"cantidad de datos de código."
|
||||
|
||||
#: src/available_models_descriptions.py:47
|
||||
msgid "Code generation model based on Code Llama."
|
||||
msgstr ""
|
||||
"Modelo de generación de código basado en Code Llama."
|
||||
|
||||
#: src/available_models_descriptions.py:48
|
||||
msgid ""
|
||||
@ -1454,32 +1542,44 @@ msgid ""
|
||||
"trained on multilingual data in English, Spanish, German, Italian, French, "
|
||||
"Portuguese, and Dutch."
|
||||
msgstr ""
|
||||
"Stable LM 2 es un modelo de lenguaje de vanguardia de 1.6B y 12B parámetros "
|
||||
"entrenado en datos multilingües en inglés, español, alemán, italiano, "
|
||||
"francés, portugués y neerlandés."
|
||||
|
||||
#: src/available_models_descriptions.py:49
|
||||
msgid ""
|
||||
"A 7B and 15B uncensored variant of the Dolphin model family that excels at "
|
||||
"coding, based on StarCoder2."
|
||||
msgstr ""
|
||||
"Una variante sin censura de 7B y 15B de la familia de modelos Dolphin que "
|
||||
"sobresale en codificación, basada en StarCoder2."
|
||||
|
||||
#: src/available_models_descriptions.py:50
|
||||
msgid "Embedding models on very large sentence level datasets."
|
||||
msgstr ""
|
||||
"Modelos de incrustación en conjuntos de datos de nivel de oración muy grandes."
|
||||
|
||||
#: src/available_models_descriptions.py:51
|
||||
msgid "General use models based on Llama and Llama 2 from Nous Research."
|
||||
msgstr ""
|
||||
"Modelos de uso general basados en Llama y Llama 2 de Nous Research."
|
||||
|
||||
#: src/available_models_descriptions.py:52
|
||||
msgid ""
|
||||
"Starling is a large language model trained by reinforcement learning from AI "
|
||||
"feedback focused on improving chatbot helpfulness."
|
||||
msgstr ""
|
||||
"Starling es un modelo de lenguaje grande entrenado mediante aprendizaje por "
|
||||
"refuerzo a partir de retroalimentación de IA enfocado en mejorar la "
|
||||
"utilidad de los chatbots."
|
||||
|
||||
#: src/available_models_descriptions.py:53
|
||||
msgid ""
|
||||
"SQLCoder is a code completion model fined-tuned on StarCoder for SQL "
|
||||
"generation tasks"
|
||||
msgstr ""
|
||||
"SQLCoder es un modelo de completado de código ajustado en StarCoder para "
|
||||
"tareas de generación de SQL."
|
||||
|
||||
#: src/available_models_descriptions.py:54
|
||||
msgid ""
|
||||
@ -1487,98 +1587,130 @@ msgid ""
|
||||
"Meta's Llama 2 models. The model is designed to excel particularly in "
|
||||
"reasoning."
|
||||
msgstr ""
|
||||
"Orca 2 es construido por Microsoft Research, y es una versión ajustada de "
|
||||
"los modelos Llama 2 de Meta. El modelo está diseñado para sobresalir "
|
||||
"particularmente en razonamiento."
|
||||
|
||||
#: src/available_models_descriptions.py:55
|
||||
msgid ""
|
||||
"This model extends LLama-3 8B's context length from 8k to over 1m tokens."
|
||||
msgstr ""
|
||||
"Este modelo extiende la longitud del contexto de LLama-3 8B de 8k a más de "
|
||||
"1m tokens."
|
||||
|
||||
#: src/available_models_descriptions.py:56
|
||||
msgid "An advanced language model crafted with 2 trillion bilingual tokens."
|
||||
msgstr ""
|
||||
"Un modelo de lenguaje avanzado creado con 2 billones de tokens bilingües."
|
||||
|
||||
#: src/available_models_descriptions.py:57
|
||||
msgid "An extension of Llama 2 that supports a context of up to 128k tokens."
|
||||
msgstr ""
|
||||
"Una extensión de Llama 2 que soporta un contexto de hasta 128k tokens."
|
||||
|
||||
#: src/available_models_descriptions.py:58
|
||||
msgid ""
|
||||
"A model from NVIDIA based on Llama 3 that excels at conversational question "
|
||||
"answering (QA) and retrieval-augmented generation (RAG)."
|
||||
msgstr ""
|
||||
"Un modelo de NVIDIA basado en Llama 3 que sobresale en respuesta a preguntas "
|
||||
"conversacionales (QA) y generación aumentada por recuperación (RAG)."
|
||||
|
||||
#: src/available_models_descriptions.py:59
|
||||
msgid ""
|
||||
"A compact, yet powerful 10.7B large language model designed for single-turn "
|
||||
"conversation."
|
||||
msgstr ""
|
||||
"Un modelo de lenguaje grande compacto pero poderoso de 10.7B diseñado para "
|
||||
"conversación de un solo turno."
|
||||
|
||||
#: src/available_models_descriptions.py:60
|
||||
msgid ""
|
||||
"Conversational model based on Llama 2 that performs competitively on various "
|
||||
"benchmarks."
|
||||
msgstr ""
|
||||
"Modelo conversacional basado en Llama 2 que tiene un rendimiento "
|
||||
"competitivo en varios benchmarks."
|
||||
|
||||
#: src/available_models_descriptions.py:61
|
||||
msgid "A family of open foundation models by IBM for Code Intelligence"
|
||||
msgstr ""
|
||||
"Una familia de modelos de base abiertos por IBM para Code Intelligence."
|
||||
|
||||
#: src/available_models_descriptions.py:62
|
||||
msgid ""
|
||||
"2.7B uncensored Dolphin model by Eric Hartford, based on the Phi language "
|
||||
"model by Microsoft Research."
|
||||
msgstr ""
|
||||
"Modelo Dolphin sin censura de 2.7B por Eric Hartford, basado en el modelo "
|
||||
"de lenguaje Phi por Microsoft Research."
|
||||
|
||||
#: src/available_models_descriptions.py:63
|
||||
msgid "General use model based on Llama 2."
|
||||
msgstr ""
|
||||
"Modelo de uso general basado en Llama 2."
|
||||
|
||||
#: src/available_models_descriptions.py:64
|
||||
msgid ""
|
||||
"A companion assistant trained in philosophy, psychology, and personal "
|
||||
"relationships. Based on Mistral."
|
||||
msgstr ""
|
||||
"Un asistente compañero entrenado en filosofía, psicología y relaciones "
|
||||
"personales. Basado en Mistral."
|
||||
|
||||
#: src/available_models_descriptions.py:65
|
||||
msgid ""
|
||||
"Llama 2 based model fine tuned on an Orca-style dataset. Originally called "
|
||||
"Free Willy."
|
||||
msgstr ""
|
||||
"Modelo basado en Llama 2 ajustado en un conjunto de datos estilo Orca. "
|
||||
"Originalmente llamado Free Willy."
|
||||
|
||||
#: src/available_models_descriptions.py:66
|
||||
msgid ""
|
||||
"BakLLaVA is a multimodal model consisting of the Mistral 7B base model "
|
||||
"augmented with the LLaVA architecture."
|
||||
msgstr ""
|
||||
"BakLLaVA es un modelo multimodal que consiste en el modelo base Mistral 7B "
|
||||
"aumentado con la arquitectura LLaVA."
|
||||
|
||||
#: src/available_models_descriptions.py:67
|
||||
msgid ""
|
||||
"A LLaVA model fine-tuned from Llama 3 Instruct with better scores in several "
|
||||
"benchmarks."
|
||||
msgstr ""
|
||||
"Un modelo LLaVA ajustado a partir de Llama 3 Instruct con mejores "
|
||||
"puntuaciones en varios benchmarks."
|
||||
|
||||
#: src/available_models_descriptions.py:68
|
||||
msgid "Uncensored version of Wizard LM model"
|
||||
msgstr ""
|
||||
"Versión sin censura del modelo Wizard LM."
|
||||
|
||||
#: src/available_models_descriptions.py:69
|
||||
msgid ""
|
||||
"Fine-tuned Llama 2 model to answer medical questions based on an open source "
|
||||
"medical dataset."
|
||||
msgstr ""
|
||||
"Modelo Llama 2 ajustado para responder preguntas médicas basado en un "
|
||||
"conjunto de datos médicos de código abierto."
|
||||
|
||||
#: src/available_models_descriptions.py:70
|
||||
msgid "The Nous Hermes 2 model from Nous Research, now trained over Mixtral."
|
||||
msgstr ""
|
||||
"El modelo Nous Hermes 2 de Nous Research, ahora entrenado sobre Mixtral."
|
||||
|
||||
#: src/available_models_descriptions.py:71
|
||||
msgid "An extension of Mistral to support context windows of 64K or 128K."
|
||||
msgstr ""
|
||||
"Una extensión de Mistral para soportar ventanas de contexto de 64K o 128K."
|
||||
|
||||
#: src/available_models_descriptions.py:72
|
||||
msgid ""
|
||||
"A suite of text embedding models by Snowflake, optimized for performance."
|
||||
msgstr ""
|
||||
"Un conjunto de modelos de incrustación de texto por Snowflake, "
|
||||
"optimizados para el rendimiento."
|
||||
|
||||
#: src/available_models_descriptions.py:73
|
||||
msgid ""
|
||||
@ -1586,31 +1718,42 @@ msgid ""
|
||||
"language understanding and domain-specific knowledge, particularly in "
|
||||
"programming and mathematics."
|
||||
msgstr ""
|
||||
"Una expansión de Llama 2 que se especializa en integrar tanto la "
|
||||
"comprensión general del lenguaje como el conocimiento específico del "
|
||||
"dominio, particularmente en programación y matemáticas."
|
||||
|
||||
#: src/available_models_descriptions.py:74
|
||||
msgid "Great code generation model based on Llama2."
|
||||
msgstr ""
|
||||
"Gran modelo de generación de código basado en Llama2."
|
||||
|
||||
#: src/available_models_descriptions.py:75
|
||||
msgid ""
|
||||
"Open-source medical large language model adapted from Llama 2 to the medical "
|
||||
"domain."
|
||||
msgstr ""
|
||||
"Modelo de lenguaje grande médico de código abierto adaptado de Llama 2 "
|
||||
"al dominio médico."
|
||||
|
||||
#: src/available_models_descriptions.py:76
|
||||
msgid ""
|
||||
"moondream2 is a small vision language model designed to run efficiently on "
|
||||
"edge devices."
|
||||
msgstr ""
|
||||
"moondream2 es un pequeño modelo de lenguaje de visión diseñado para "
|
||||
"funcionar eficientemente en dispositivos periféricos."
|
||||
|
||||
#: src/available_models_descriptions.py:77
|
||||
msgid "Uncensored Llama2 based model with support for a 16K context window."
|
||||
msgstr ""
|
||||
"Modelo sin censura basado en Llama2 con soporte para una ventana de "
|
||||
"contexto de 16K."
|
||||
|
||||
#: src/available_models_descriptions.py:78
|
||||
msgid ""
|
||||
"Nexus Raven is a 13B instruction tuned model for function calling tasks."
|
||||
msgstr ""
|
||||
"Nexus Raven es un modelo ajustado de 13B para tareas de llamada de funciones."
|
||||
|
||||
#: src/available_models_descriptions.py:79
|
||||
msgid ""
|
||||
@ -1618,85 +1761,113 @@ msgid ""
|
||||
"instruction data using OSS-Instruct, a novel approach to enlightening LLMs "
|
||||
"with open-source code snippets."
|
||||
msgstr ""
|
||||
"🎩 Magicoder es una familia de modelos de 7B parámetros entrenados en 75K "
|
||||
"datos de instrucción sintética utilizando OSS-Instruct, un enfoque novedoso "
|
||||
"para iluminar a los LLMs con fragmentos de código de código abierto."
|
||||
|
||||
#: src/available_models_descriptions.py:80
|
||||
msgid "A strong, economical, and efficient Mixture-of-Experts language model."
|
||||
msgstr ""
|
||||
"Un modelo de lenguaje Mixture-of-Experts fuerte, económico y eficiente."
|
||||
|
||||
#: src/available_models_descriptions.py:81
|
||||
msgid ""
|
||||
"A lightweight chat model allowing accurate, and responsive output without "
|
||||
"requiring high-end hardware."
|
||||
msgstr ""
|
||||
"Un modelo de chat ligero que permite una salida precisa y receptiva sin "
|
||||
"requerir hardware de alta gama."
|
||||
|
||||
#: src/available_models_descriptions.py:82
|
||||
msgid ""
|
||||
"A high-performing code instruct model created by merging two existing code "
|
||||
"models."
|
||||
msgstr ""
|
||||
"Un modelo de instrucción de código de alto rendimiento creado mediante la "
|
||||
"fusión de dos modelos de código existentes."
|
||||
|
||||
#: src/available_models_descriptions.py:83
|
||||
msgid "A new small LLaVA model fine-tuned from Phi 3 Mini."
|
||||
msgstr ""
|
||||
"Un nuevo pequeño modelo LLaVA ajustado a partir de Phi 3 Mini."
|
||||
|
||||
#: src/available_models_descriptions.py:84
|
||||
msgid ""
|
||||
"MistralLite is a fine-tuned model based on Mistral with enhanced "
|
||||
"capabilities of processing long contexts."
|
||||
msgstr ""
|
||||
"MistralLite es un modelo ajustado basado en Mistral con capacidades "
|
||||
"mejoradas de procesamiento de contextos largos."
|
||||
|
||||
#: src/available_models_descriptions.py:85
|
||||
msgid ""
|
||||
"Wizard Vicuna is a 13B parameter model based on Llama 2 trained by "
|
||||
"MelodysDreamj."
|
||||
msgstr ""
|
||||
"Wizard Vicuna es un modelo de 13B parámetros basado en Llama 2 entrenado "
|
||||
"por MelodysDreamj."
|
||||
|
||||
#: src/available_models_descriptions.py:86
|
||||
msgid "7B parameter text-to-SQL model made by MotherDuck and Numbers Station."
|
||||
msgstr ""
|
||||
"Modelo de texto a SQL de 7B parámetros hecho por MotherDuck y Numbers Station."
|
||||
|
||||
#: src/available_models_descriptions.py:87
|
||||
msgid ""
|
||||
"A language model created by combining two fine-tuned Llama 2 70B models into "
|
||||
"one."
|
||||
msgstr ""
|
||||
"Un modelo de lenguaje creado combinando dos modelos ajustados de Llama 2 "
|
||||
"70B en uno."
|
||||
|
||||
#: src/available_models_descriptions.py:88
|
||||
msgid ""
|
||||
"MegaDolphin-2.2-120b is a transformation of Dolphin-2.2-70b created by "
|
||||
"interleaving the model with itself."
|
||||
msgstr ""
|
||||
"MegaDolphin-2.2-120b es una transformación de Dolphin-2.2-70b creada al "
|
||||
"entrelazar el modelo consigo mismo."
|
||||
|
||||
#: src/available_models_descriptions.py:89
|
||||
msgid ""
|
||||
"Merge of the Open Orca OpenChat model and the Garage-bAInd Platypus 2 model. "
|
||||
"Designed for chat and code generation."
|
||||
msgstr ""
|
||||
"Fusión del modelo Open Orca OpenChat y el modelo Garage-bAInd Platypus 2. "
|
||||
"Diseñado para chat y generación de código."
|
||||
|
||||
#: src/available_models_descriptions.py:90
|
||||
msgid ""
|
||||
"A top-performing mixture of experts model, fine-tuned with high-quality data."
|
||||
msgstr ""
|
||||
"Un modelo de mezcla de expertos de alto rendimiento, ajustado con datos "
|
||||
"de alta calidad."
|
||||
|
||||
#: src/available_models_descriptions.py:91
|
||||
msgid "A 7B chat model fine-tuned with high-quality data and based on Zephyr."
|
||||
msgstr ""
|
||||
"Un modelo de chat de 7B ajustado con datos de alta calidad y basado en Zephyr."
|
||||
|
||||
#: src/available_models_descriptions.py:92
|
||||
msgid "DBRX is an open, general-purpose LLM created by Databricks."
|
||||
msgstr ""
|
||||
"DBRX es un LLM abierto de propósito general creado por Databricks."
|
||||
|
||||
#: src/available_models_descriptions.py:93
|
||||
msgid ""
|
||||
"Falcon2 is an 11B parameters causal decoder-only model built by TII and "
|
||||
"trained over 5T tokens."
|
||||
msgstr ""
|
||||
"Falcon2 es un modelo causal de 11B parámetros solo decodificador construido "
|
||||
"por TII y entrenado en más de 5T tokens."
|
||||
|
||||
#: src/available_models_descriptions.py:94
|
||||
msgid ""
|
||||
"A robust conversational model designed to be used for both chat and instruct "
|
||||
"use cases."
|
||||
msgstr ""
|
||||
"Un modelo conversacional robusto diseñado para ser utilizado tanto en "
|
||||
"casos de uso de chat como de instrucción."
|
||||
|
||||
#, fuzzy
|
||||
#~ msgid "New message from '{}'"
|
||||
|
Loading…
x
Reference in New Issue
Block a user