# Russian translations for Alpaca. # Copyright (C) 2024 Jeffser # This file is distributed under the same license as the Alpaca package. # (YOUR NAME) <(EMAIL OPTIONAL)> # msgid "" msgstr "" "Project-Id-Version: 1.0.0\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2024-07-08 11:01+0800\n" "PO-Revision-Date: 2024-07-08 17:18+0800\n" "Last-Translator: (YOUR NAME) <(EMAIL OPTIONAL)>\n" "Language-Team: Russian\n" "Language: ru\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" "X-Generator: Poedit 3.4.4\n" "X-Poedit-Basepath: ../src\n" "X-Poedit-SearchPath-0: .\n" #: available_models_descriptions.py:2 msgid "Google Gemma 2 is now available in 2 sizes, 9B and 27B." msgstr "Google Gemma 2 теперь доступен в двух размерах: 9B и 27B." #: available_models_descriptions.py:3 msgid "Meta Llama 3: The most capable openly available LLM to date" msgstr "Meta Llama 3: Самый мощный из открытых LLM на сегодняшний день" #: available_models_descriptions.py:4 msgid "Qwen2 is a new series of large language models from Alibaba group" msgstr "Qwen2 — новая серия больших языковых моделей от группы Alibaba" #: available_models_descriptions.py:5 msgid "" "An open-source Mixture-of-Experts code language model that achieves " "performance comparable to GPT4-Turbo in code-specific tasks." msgstr "" "Модель языка кода Mixture-of-Experts с открытым исходным кодом, " "обеспечивающая производительность, сравнимую с GPT4-Turbo, в задачах, " "специфичных для кода." #: available_models_descriptions.py:6 msgid "" "Phi-3 is a family of lightweight 3B (Mini) and 14B (Medium) state-of-the-art " "open models by Microsoft." msgstr "" "Phi-3 — это семейство легких современных открытых моделей 3B (Mini) и 14B " "(Medium) от Microsoft." #: available_models_descriptions.py:7 msgid "" "Aya 23, released by Cohere, is a new family of state-of-the-art, " "multilingual models that support 23 languages." msgstr "" "Aya 23, выпущенная компанией Cohere, представляет собой новое семейство " "современных многоязычных моделей, поддерживающих 23 языка." #: available_models_descriptions.py:8 msgid "The 7B model released by Mistral AI, updated to version 0.3." msgstr "Модель 7Б, выпущенная Mistral AI, обновлена ​​до версии 0.3." #: available_models_descriptions.py:9 msgid "" "A set of Mixture of Experts (MoE) model with open weights by Mistral AI in " "8x7b and 8x22b parameter sizes." msgstr "" "Набор модели Mixture of Experts (MoE) с открытыми весами от Mistral AI с " "размерами параметров 8x7b и 8x22b." #: available_models_descriptions.py:10 msgid "" "CodeGemma is a collection of powerful, lightweight models that can perform a " "variety of coding tasks like fill-in-the-middle code completion, code " "generation, natural language understanding, mathematical reasoning, and " "instruction following." msgstr "" "CodeGemma — это набор мощных и легких моделей, которые могут выполнять " "различные задачи кодирования, такие как завершение кода с заполнением " "посередине, генерация кода, понимание естественного языка, математические " "рассуждения и выполнение инструкций." #: available_models_descriptions.py:11 msgid "" "Command R is a Large Language Model optimized for conversational interaction " "and long context tasks." msgstr "" "Command R — это большая языковая модель, оптимизированная для диалогового " "взаимодействия и задач с длинным контекстом." #: available_models_descriptions.py:12 msgid "" "Command R+ is a powerful, scalable large language model purpose-built to " "excel at real-world enterprise use cases." msgstr "" "Command R+ — это мощная масштабируемая модель большого языка, специально " "созданная для достижения успеха в реальных корпоративных сценариях " "использования." #: available_models_descriptions.py:13 msgid "" "🌋 LLaVA is a novel end-to-end trained large multimodal model that combines " "a vision encoder and Vicuna for general-purpose visual and language " "understanding. Updated to version 1.6." msgstr "" "🌋 LLaVA — это новая комплексная обученная большая мультимодальная модель, " "которая сочетает в себе видеокодер и Vicuna для общего визуального и " "языкового понимания. Обновлено до версии 1.6." #: available_models_descriptions.py:14 msgid "" "Gemma is a family of lightweight, state-of-the-art open models built by " "Google DeepMind. Updated to version 1.1" msgstr "" "Gemma — это семейство легких современных открытых моделей, созданных Google " "DeepMind. Обновлено до версии 1.1" #: available_models_descriptions.py:15 msgid "" "Qwen 1.5 is a series of large language models by Alibaba Cloud spanning from " "0.5B to 110B parameters" msgstr "" "Qwen 1.5 — это серия крупных языковых моделей от Alibaba Cloud с параметрами " "от 0,5 до 110 B" #: available_models_descriptions.py:16 msgid "" "Llama 2 is a collection of foundation language models ranging from 7B to 70B " "parameters." msgstr "" "Llama 2 — это набор базовых языковых моделей с параметрами от 7B до 70B." #: available_models_descriptions.py:17 msgid "" "A large language model that can use text prompts to generate and discuss " "code." msgstr "" "Большая языковая модель, которая может использовать текстовые подсказки для " "создания и обсуждения кода." #: available_models_descriptions.py:18 msgid "" "Uncensored, 8x7b and 8x22b fine-tuned models based on the Mixtral mixture of " "experts models that excels at coding tasks. Created by Eric Hartford." msgstr "" "Без цензуры, точно настроенные модели 8x7b и 8x22b, основанные на смеси " "экспертных моделей Mixtral, которые превосходно справляются с задачами " "кодирования. Создан Эриком Хартфордом." #: available_models_descriptions.py:19 msgid "Uncensored Llama 2 model by George Sung and Jarrad Hope." msgstr "Модель Llama 2 без цензуры от Джорджа Санга и Джаррада Хоупа." #: available_models_descriptions.py:20 msgid "" "DeepSeek Coder is a capable coding model trained on two trillion code and " "natural language tokens." msgstr "" "DeepSeek Coder — это эффективная модель кодирования, обученная на двух " "триллионах кода и токенах естественного языка." #: available_models_descriptions.py:21 msgid "" "A high-performing open embedding model with a large token context window." msgstr "" "Высокопроизводительная открытая модель внедрения с большим окном контекста " "токена." #: available_models_descriptions.py:22 msgid "" "Phi-2: a 2.7B language model by Microsoft Research that demonstrates " "outstanding reasoning and language understanding capabilities." msgstr "" "Phi-2: языковая модель 2,7B от Microsoft Research, демонстрирующая " "выдающиеся способности к рассуждению и пониманию языка." #: available_models_descriptions.py:23 msgid "" "The uncensored Dolphin model based on Mistral that excels at coding tasks. " "Updated to version 2.8." msgstr "" "Модель Dolphin без цензуры, основанная на Mistral, которая превосходно " "справляется с задачами кодирования. Обновлено до версии 2.8." #: available_models_descriptions.py:24 msgid "" "Mistral OpenOrca is a 7 billion parameter model, fine-tuned on top of the " "Mistral 7B model using the OpenOrca dataset." msgstr "" "Mistral OpenOrca — это модель с 7 миллиардами параметров, доработанная на " "основе модели Mistral 7B с использованием набора данных OpenOrca." #: available_models_descriptions.py:25 msgid "" "A general-purpose model ranging from 3 billion parameters to 70 billion, " "suitable for entry-level hardware." msgstr "" "Модель общего назначения с числом параметров от 3 до 70 миллиардов, " "подходящая для аппаратного обеспечения начального уровня." #: available_models_descriptions.py:26 msgid "State-of-the-art large embedding model from mixedbread.ai" msgstr "Современная большая модель встраивания от mixbread.ai" #: available_models_descriptions.py:27 msgid "" "Dolphin 2.9 is a new model with 8B and 70B sizes by Eric Hartford based on " "Llama 3 that has a variety of instruction, conversational, and coding skills." msgstr "" "Dolphin 2.9 — это новая модель размеров 8B и 70B, созданная Эриком " "Хартфордом на основе Llama 3, которая обладает разнообразными навыками " "обучения, общения и программирования." #: available_models_descriptions.py:28 msgid "" "StarCoder2 is the next generation of transparently trained open code LLMs " "that comes in three sizes: 3B, 7B and 15B parameters." msgstr "" "StarCoder2 — это следующее поколение LLM с прозрачным обученным открытым " "кодом, которое поставляется в трех размерах: параметры 3B, 7B и 15B." #: available_models_descriptions.py:29 msgid "Llama 2 based model fine tuned to improve Chinese dialogue ability." msgstr "" "Модель на основе Llama 2 настроена для улучшения навыков диалога на " "китайском языке." #: available_models_descriptions.py:30 msgid "" "Zephyr is a series of fine-tuned versions of the Mistral and Mixtral models " "that are trained to act as helpful assistants." msgstr "" "Zephyr — это серия доработанных версий моделей Mistral и Mixtral, которые " "обучены выполнять роль полезных помощников." #: available_models_descriptions.py:31 msgid "Yi 1.5 is a high-performing, bilingual language model." msgstr "Yi 1.5 — это высокопроизводительная двуязычная языковая модель." #: available_models_descriptions.py:32 msgid "" "The powerful family of models by Nous Research that excels at scientific " "discussion and coding tasks." msgstr "" "Мощное семейство моделей от Nous Research, которое превосходно справляется с " "задачами научного обсуждения и кодирования." #: available_models_descriptions.py:33 msgid "" "General use chat model based on Llama and Llama 2 with 2K to 16K context " "sizes." msgstr "" "Модель чата общего использования на основе Llama и Llama 2 с размерами " "контекста от 2 до 16 КБ." #: available_models_descriptions.py:34 msgid "" "Wizard Vicuna Uncensored is a 7B, 13B, and 30B parameter model based on " "Llama 2 uncensored by Eric Hartford." msgstr "" "Wizard Vicuna Uncensored — это модель с параметрами 7B, 13B и 30B, " "основанная на Llama 2 без цензуры Эрика Хартфорда." #: available_models_descriptions.py:35 msgid "" "The TinyLlama project is an open endeavor to train a compact 1.1B Llama " "model on 3 trillion tokens." msgstr "" "Проект TinyLlama — это открытая попытка обучить компактную модель Llama " "размером 1,1B на 3 триллионах токенов." #: available_models_descriptions.py:36 msgid "" "State of the art large language model from Microsoft AI with improved " "performance on complex chat, multilingual, reasoning and agent use cases." msgstr "" "Современная модель большого языка от Microsoft AI с улучшенной " "производительностью в сложных чатах, многоязычных средах, рассуждениях и " "сценариях использования агентов." #: available_models_descriptions.py:37 msgid "" "StarCoder is a code generation model trained on 80+ programming languages." msgstr "" "StarCoder — это модель генерации кода, обученная на более чем 80 языках " "программирования." #: available_models_descriptions.py:38 msgid "" "Codestral is Mistral AI’s first-ever code model designed for code generation " "tasks." msgstr "" "Codestral — это первая модель кода Mistral AI, предназначенная для задач " "генерации кода." #: available_models_descriptions.py:39 msgid "" "A family of open-source models trained on a wide variety of data, surpassing " "ChatGPT on various benchmarks. Updated to version 3.5-0106." msgstr "" "Семейство моделей с открытым исходным кодом, обученных на широком спектре " "данных, превосходящих ChatGPT по различным критериям. Обновлено до версии " "3.5-0106." #: available_models_descriptions.py:40 msgid "" "An experimental 1.1B parameter model trained on the new Dolphin 2.8 dataset " "by Eric Hartford and based on TinyLlama." msgstr "" "Экспериментальная модель с параметрами 1.1B, обученная на новом наборе " "данных Dolphin 2.8 Эрика Хартфорда и основанная на TinyLlama." #: available_models_descriptions.py:41 msgid "" "OpenHermes 2.5 is a 7B model fine-tuned by Teknium on Mistral with fully " "open datasets." msgstr "" "OpenHermes 2.5 — это модель 7B, доработанная Teknium на Mistral с полностью " "открытыми наборами данных." #: available_models_descriptions.py:42 msgid "State-of-the-art code generation model" msgstr "Современная модель генерации кода" #: available_models_descriptions.py:43 msgid "" "Stable Code 3B is a coding model with instruct and code completion variants " "on par with models such as Code Llama 7B that are 2.5x larger." msgstr "" "Стабильный код 3B — это модель кодирования с вариантами инструкций и " "завершения кода наравне с такими моделями, как Code Llama 7B, которые в 2,5 " "раза больше." #: available_models_descriptions.py:44 msgid "" "A fine-tuned model based on Mistral with good coverage of domain and " "language." msgstr "" "Доработанная модель на базе Mistral с хорошим охватом предметной области и " "языка." #: available_models_descriptions.py:45 msgid "Model focused on math and logic problems" msgstr "Модель ориентирована на математические и логические задачи" #: available_models_descriptions.py:46 msgid "" "CodeQwen1.5 is a large language model pretrained on a large amount of code " "data." msgstr "" "CodeQwen1.5 — это большая языковая модель, предварительно обученная на " "большом объеме данных кода." #: available_models_descriptions.py:47 msgid "Code generation model based on Code Llama." msgstr "Модель генерации кода на основе Code Llama." #: available_models_descriptions.py:48 msgid "" "Stable LM 2 is a state-of-the-art 1.6B and 12B parameter language model " "trained on multilingual data in English, Spanish, German, Italian, French, " "Portuguese, and Dutch." msgstr "" "Stable LM 2 — это современная языковая модель с параметрами 1,6B и 12B, " "обученная на многоязычных данных на английском, испанском, немецком, " "итальянском, французском, португальском и голландском языках." #: available_models_descriptions.py:49 msgid "" "A 7B and 15B uncensored variant of the Dolphin model family that excels at " "coding, based on StarCoder2." msgstr "" "Вариант семейства моделей Dolphin 7B и 15B без цензуры, превосходный в " "кодировании, на основе StarCoder2." #: available_models_descriptions.py:50 msgid "Embedding models on very large sentence level datasets." msgstr "" "Встраивание моделей в очень большие наборы данных на уровне предложений." #: available_models_descriptions.py:51 msgid "General use models based on Llama and Llama 2 from Nous Research." msgstr "Модели общего пользования на базе Llama и Llama 2 от Nous Research." #: available_models_descriptions.py:52 msgid "" "Starling is a large language model trained by reinforcement learning from AI " "feedback focused on improving chatbot helpfulness." msgstr "" "Starling — это большая языковая модель, обученная с помощью обучения с " "подкреплением на основе отзывов искусственного интеллекта, направленная на " "повышение полезности чат-бота." #: available_models_descriptions.py:53 msgid "" "SQLCoder is a code completion model fined-tuned on StarCoder for SQL " "generation tasks" msgstr "" "SQLCoder — это модель завершения кода, настроенная в StarCoder для задач " "генерации SQL" #: available_models_descriptions.py:54 msgid "" "Orca 2 is built by Microsoft research, and are a fine-tuned version of " "Meta's Llama 2 models. The model is designed to excel particularly in " "reasoning." msgstr "" "Orca 2 создана в результате исследований Microsoft и представляет собой " "доработанную версию моделей Meta 2 Llama 2. Модель разработана, чтобы " "преуспеть, в частности, в рассуждениях." #: available_models_descriptions.py:55 msgid "" "This model extends LLama-3 8B's context length from 8k to over 1m tokens." msgstr "" "Эта модель увеличивает длину контекста LLama-3 8B с 8 тыс. до более чем 1 " "млн токенов." #: available_models_descriptions.py:56 msgid "An advanced language model crafted with 2 trillion bilingual tokens." msgstr "" "Усовершенствованная языковая модель, созданная на основе 2 триллионов " "двуязычных токенов." #: available_models_descriptions.py:57 msgid "An extension of Llama 2 that supports a context of up to 128k tokens." msgstr "Расширение Llama 2, поддерживающее контекст до 128 тыс. токенов." #: available_models_descriptions.py:58 msgid "" "A model from NVIDIA based on Llama 3 that excels at conversational question " "answering (QA) and retrieval-augmented generation (RAG)." msgstr "" "Модель от NVIDIA на основе Llama 3, которая превосходно справляется с " "диалоговым ответом на вопросы (QA) и генерацией с расширенным поиском (RAG)." #: available_models_descriptions.py:59 msgid "" "A compact, yet powerful 10.7B large language model designed for single-turn " "conversation." msgstr "" "Компактная, но мощная языковая модель с поддержкой 10,7 ББ, предназначенная " "для одноразового разговора." #: available_models_descriptions.py:60 msgid "" "Conversational model based on Llama 2 that performs competitively on various " "benchmarks." msgstr "" "Диалоговая модель на базе Llama 2, конкурентоспособная по различным " "показателям." #: available_models_descriptions.py:61 msgid "A family of open foundation models by IBM for Code Intelligence" msgstr "Семейство моделей открытого фонда от IBM для Code Intelligence" #: available_models_descriptions.py:62 msgid "" "2.7B uncensored Dolphin model by Eric Hartford, based on the Phi language " "model by Microsoft Research." msgstr "" "2.7B модель Dolphin без цензуры Эрика Хартфорда, основанная на модели языка " "Phi, разработанной Microsoft Research." #: available_models_descriptions.py:63 msgid "General use model based on Llama 2." msgstr "Модель общего назначения на базе Llama 2." #: available_models_descriptions.py:64 msgid "" "A companion assistant trained in philosophy, psychology, and personal " "relationships. Based on Mistral." msgstr "" "Помощник-компаньон, прошедший обучение в области философии, психологии и " "личных отношений. На базе Мистраля." #: available_models_descriptions.py:65 msgid "" "Llama 2 based model fine tuned on an Orca-style dataset. Originally called " "Free Willy." msgstr "" "Модель на основе Llama 2 точно настроена на наборе данных в стиле Orca. " "Первоначально назывался Свободный Вилли." #: available_models_descriptions.py:66 msgid "" "BakLLaVA is a multimodal model consisting of the Mistral 7B base model " "augmented with the LLaVA architecture." msgstr "" "BakLLaVA — мультимодальная модель, состоящая из базовой модели Mistral 7B, " "дополненной архитектурой LLaVA." #: available_models_descriptions.py:67 msgid "" "A LLaVA model fine-tuned from Llama 3 Instruct with better scores in several " "benchmarks." msgstr "" "Модель LLaVA, доработанная на основе Llama 3 Instruct, с лучшими " "показателями в нескольких тестах." #: available_models_descriptions.py:68 msgid "Uncensored version of Wizard LM model" msgstr "Версия модели Wizard LM без цензуры" #: available_models_descriptions.py:69 msgid "" "Fine-tuned Llama 2 model to answer medical questions based on an open source " "medical dataset." msgstr "" "Точная настройка модели Llama 2 для ответа на медицинские вопросы на основе " "набора медицинских данных с открытым исходным кодом." #: available_models_descriptions.py:70 msgid "The Nous Hermes 2 model from Nous Research, now trained over Mixtral." msgstr "" "Модель Nous Hermes 2 от Nous Research, которая теперь обучена на Mixtral." #: available_models_descriptions.py:71 msgid "An extension of Mistral to support context windows of 64K or 128K." msgstr "" "Расширение Mistral для поддержки контекстных окон размером 64 КБ или 128 КБ." #: available_models_descriptions.py:72 msgid "" "A suite of text embedding models by Snowflake, optimized for performance." msgstr "" "Набор моделей встраивания текста от Snowflake, оптимизированных для " "повышения производительности." #: available_models_descriptions.py:73 msgid "" "An expansion of Llama 2 that specializes in integrating both general " "language understanding and domain-specific knowledge, particularly in " "programming and mathematics." msgstr "" "Расширение Llama 2, которое специализируется на интеграции как общего " "понимания языка, так и знаний по конкретной предметной области, особенно в " "области программирования и математики." #: available_models_descriptions.py:74 msgid "Great code generation model based on Llama2." msgstr "Отличная модель генерации кода на основе Llama2." #: available_models_descriptions.py:75 msgid "" "Open-source medical large language model adapted from Llama 2 to the medical " "domain." msgstr "" "Большая языковая модель с открытым исходным кодом, адаптированная из Llama " "2 для медицинской сферы." #: available_models_descriptions.py:76 msgid "" "moondream2 is a small vision language model designed to run efficiently on " "edge devices." msgstr "" "moondream2 — это небольшая языковая модель видения, предназначенная для " "эффективной работы на периферийных устройствах." #: available_models_descriptions.py:77 msgid "Uncensored Llama2 based model with support for a 16K context window." msgstr "" "Модель на основе Llama2 без цензуры с поддержкой контекстного окна 16 КБ." #: available_models_descriptions.py:78 msgid "" "Nexus Raven is a 13B instruction tuned model for function calling tasks." msgstr "" "Nexus Raven — это модель с поддержкой 13B инструкций для задач вызова " "функций." #: available_models_descriptions.py:79 msgid "" "🎩 Magicoder is a family of 7B parameter models trained on 75K synthetic " "instruction data using OSS-Instruct, a novel approach to enlightening LLMs " "with open-source code snippets." msgstr "" "🎩 Magicoder — это семейство моделей с 7B параметрами, обученных на 75 000 " "синтетических данных инструкций с использованием OSS-Instruct, нового " "подхода к обучению LLM с помощью фрагментов кода с открытым исходным кодом." #: available_models_descriptions.py:80 msgid "A strong, economical, and efficient Mixture-of-Experts language model." msgstr "Сильная, экономичная и эффективная языковая модель «Смесь экспертов»." #: available_models_descriptions.py:81 msgid "" "A lightweight chat model allowing accurate, and responsive output without " "requiring high-end hardware." msgstr "" "Облегченная модель чата, обеспечивающая точный и быстрый вывод без " "необходимости использования высокопроизводительного оборудования." #: available_models_descriptions.py:82 msgid "" "A high-performing code instruct model created by merging two existing code " "models." msgstr "" "Высокопроизводительная модель инструкций кода, созданная путем объединения " "двух существующих моделей кода." #: available_models_descriptions.py:83 msgid "A new small LLaVA model fine-tuned from Phi 3 Mini." msgstr "Новая маленькая модель LLaVA, доработанная на основе Phi 3 Mini." #: available_models_descriptions.py:84 msgid "" "MistralLite is a fine-tuned model based on Mistral with enhanced " "capabilities of processing long contexts." msgstr "" "MistralLite — доработанная модель на базе Mistral с расширенными " "возможностями обработки длинных контекстов." #: available_models_descriptions.py:85 msgid "" "Wizard Vicuna is a 13B parameter model based on Llama 2 trained by " "MelodysDreamj." msgstr "" "Wizard Vicuna — это модель с 13B параметрами, основанная на Llama 2, " "обученная MelodysDreamj." #: available_models_descriptions.py:86 msgid "7B parameter text-to-SQL model made by MotherDuck and Numbers Station." msgstr "" "Модель преобразования текста в SQL с 7B параметрами, созданная MotherDuck и " "Numbers Station." #: available_models_descriptions.py:87 msgid "" "A language model created by combining two fine-tuned Llama 2 70B models into " "one." msgstr "" "Языковая модель, созданная путем объединения двух точно настроенных моделей " "Llama 2 70B в одну." #: available_models_descriptions.py:88 msgid "" "MegaDolphin-2.2-120b is a transformation of Dolphin-2.2-70b created by " "interleaving the model with itself." msgstr "" "MegaDolphin-2.2-120b — это трансформация Dolphin-2.2-70b, созданная путем " "чередования модели самой с собой." #: available_models_descriptions.py:89 msgid "" "Merge of the Open Orca OpenChat model and the Garage-bAInd Platypus 2 model. " "Designed for chat and code generation." msgstr "" "Слияние модели Open Orca OpenChat и модели Garage-bAInd Platypus 2. " "Предназначен для чата и генерации кода." #: available_models_descriptions.py:90 msgid "" "A top-performing mixture of experts model, fine-tuned with high-quality data." msgstr "" "Высокоэффективная модель экспертной модели, точно настроенная на основе " "высококачественных данных." #: available_models_descriptions.py:91 msgid "A 7B chat model fine-tuned with high-quality data and based on Zephyr." msgstr "" "Модель чата 7B, настроенная на основе высококачественных данных и основанная " "на Zephyr." #: available_models_descriptions.py:92 msgid "DBRX is an open, general-purpose LLM created by Databricks." msgstr "DBRX — это открытая LLM общего назначения, созданная Databricks." #: available_models_descriptions.py:93 msgid "" "Falcon2 is an 11B parameters causal decoder-only model built by TII and " "trained over 5T tokens." msgstr "" "Falcon2 — это модель причинного декодера с 11B параметров, созданная TII и " "обученная на токенах 5T." #: available_models_descriptions.py:94 msgid "" "A robust conversational model designed to be used for both chat and instruct " "use cases." msgstr "" "Надежная диалоговая модель, предназначенная для использования как в чате, " "так и для инструкций." #: dialogs.py:17 msgid "Chat cannot be cleared while receiving a message" msgstr "Чат не может быть удален при получении сообщения" #: dialogs.py:20 msgid "Clear Chat?" msgstr "Очистить чат?" #: dialogs.py:21 msgid "Are you sure you want to clear the chat?" msgstr "Вы уверены, что хотите очистить чат?" #: dialogs.py:24 dialogs.py:45 dialogs.py:72 dialogs.py:99 dialogs.py:121 #: dialogs.py:142 dialogs.py:163 dialogs.py:223 dialogs.py:308 dialogs.py:346 msgid "Cancel" msgstr "Отмена" #: dialogs.py:25 msgid "Clear" msgstr "Очистить" #: dialogs.py:41 msgid "Delete Chat?" msgstr "Удалить чат?" #: dialogs.py:42 dialogs.py:139 msgid "Are you sure you want to delete '{}'?" msgstr "Вы уверены, что хотите удалить '{}'?" #: dialogs.py:46 dialogs.py:143 msgid "Delete" msgstr "Удалить" #: dialogs.py:66 msgid "Rename Chat?" msgstr "Переименовать чат?" #: dialogs.py:67 msgid "Renaming '{}'" msgstr "Переименование '{}'" #: dialogs.py:73 msgid "Rename" msgstr "Переименовать" #: dialogs.py:84 window.py:58 window.py:1042 window.py:1104 window.ui:41 msgid "New Chat" msgstr "Новый Чат" #: dialogs.py:93 msgid "Create Chat?" msgstr "Создать чат?" #: dialogs.py:94 msgid "Enter name for new chat" msgstr "Введите название для нового чата" #: dialogs.py:100 window.ui:469 msgid "Create" msgstr "Создать" #: dialogs.py:117 msgid "Stop Download?" msgstr "Остановить загрузку?" #: dialogs.py:118 msgid "Are you sure you want to stop pulling '{} ({})'?" msgstr "Вы уверены, что хотите прекратить извлечение '{} ({})'?" #: dialogs.py:122 msgid "Stop" msgstr "Стоп" #: dialogs.py:138 msgid "Delete Model?" msgstr "Удалить модель?" #: dialogs.py:159 msgid "Remove Attachment?" msgstr "Удалить вложение?" #: dialogs.py:160 msgid "Are you sure you want to remove attachment?" msgstr "Вы уверены, что хотите удалить вложение?" #: dialogs.py:164 msgid "Remove" msgstr "Удалить" #: dialogs.py:189 msgid "Connection Error" msgstr "Ошибка Соединения" #: dialogs.py:190 msgid "The remote instance has disconnected" msgstr "Удаленный экземпляр отключился" #: dialogs.py:194 msgid "Close Alpaca" msgstr "Закрыть Программу" #: dialogs.py:195 msgid "Use local instance" msgstr "Использовать локальный экземпляр" #: dialogs.py:196 msgid "Connect" msgstr "Подключить" #: dialogs.py:219 msgid "Select Model" msgstr "Выбор модели" #: dialogs.py:220 msgid "This model will be used as the base for the new model" msgstr "Эта модель будет использована в качестве базовой для новой модели" #: dialogs.py:224 dialogs.py:309 dialogs.py:347 msgid "Accept" msgstr "Принять" #: dialogs.py:238 msgid "An error occurred while creating the model" msgstr "При создании модели произошла ошибка" #: dialogs.py:258 window.py:1403 msgid "Image recognition is only available on specific models" msgstr "Распознавание изображений доступно только на определенных моделях" #: dialogs.py:294 msgid "This video does not have any transcriptions" msgstr "В этом видео нет никаких расшифровок" #: dialogs.py:303 msgid "Attach YouTube Video?" msgstr "Прикрепить видео с YouTube?" #: dialogs.py:304 msgid "" "{}\n" "\n" "Please select a transcript to include" msgstr "" "{}\n" "\n" "Пожалуйста, выберите расшифровку для включения" #: dialogs.py:337 msgid "An error occurred while extracting text from the website" msgstr "При извлечении текста с веб-сайта произошла ошибка" #: dialogs.py:342 msgid "Attach Website? (Experimental)" msgstr "Прикрепить веб-сайт? (Экспериментальный)" #: dialogs.py:343 msgid "" "Are you sure you want to attach\n" "'{}'?" msgstr "" "Вы уверены, что хотите прикрепить\n" "\"{}\"?" #: gtk/help-overlay.ui:11 msgctxt "shortcut window" msgid "General" msgstr "Общие" #: gtk/help-overlay.ui:14 msgctxt "shortcut window" msgid "Show Shortcuts" msgstr "Показывать комбинации клавиш" #: gtk/help-overlay.ui:20 msgctxt "shortcut window" msgid "Quit" msgstr "Выйти" #: window.py:167 msgid "Message edited successfully" msgstr "Сообщение успешно изменено" #: window.py:182 msgid "Please select a model before chatting" msgstr "Пожалуйста, выберите модель перед началом общения" #: window.py:249 msgid "Close" msgstr "Закрыть" #: window.py:250 window.ui:813 msgid "Next" msgstr "Следующий" #: window.py:283 window.py:294 msgid "Failed to connect to server" msgstr "Не удалось подключиться к серверу" #: window.py:301 msgid "Pulling in the background..." msgstr "Извлечение в фоновом режиме..." #: window.py:353 msgid "Stop Creating '{}'" msgstr "Остановить создание '{}'" #: window.py:390 msgid "image" msgstr "изображение" #: window.py:458 msgid "Message copied to the clipboard" msgstr "Сообщение скопировано в буфер обмена" #: window.py:559 msgid "Remove Message" msgstr "Удалить Сообщение" #: window.py:564 window.py:835 msgid "Copy Message" msgstr "Копировать Сообщение" #: window.py:569 msgid "Edit Message" msgstr "Изменить Сообщение" #: window.py:627 msgid "Missing Image" msgstr "Изображение Отсутствует" #: window.py:643 msgid "Missing image" msgstr "Изображение отсутствует" #: window.py:723 msgid "Remove '{} ({})'" msgstr "Удалить '{} ({})'" #: window.py:861 msgid "Code copied to the clipboard" msgstr "Код скопирован в буфер обмена" #: window.py:934 msgid "Task Complete" msgstr "Задача выполнена" #: window.py:934 msgid "Model '{}' pulled successfully." msgstr "Модель '{}' успешно извлечена." #: window.py:939 msgid "Pull Model Error" msgstr "Ошибка Извлечения Модели" #: window.py:939 msgid "Failed to pull model '{}' due to network error." msgstr "Не удалось извлечь модель '{}' из-за сетевой ошибки." #: window.py:970 msgid "Stop Pulling '{} ({})'" msgstr "Остановить извлечение '{} ({})'" #: window.py:1010 msgid "Image Recognition" msgstr "Распознавание изображений" #: window.py:1118 msgid "Model deleted successfully" msgstr "Модель успешно удалена" #: window.py:1192 msgid "There was an error with the local Ollama instance, so it has been reset" msgstr "" "Произошла ошибка с локальным экземпляром Ollama, поэтому он был сброшен" #: window.py:1211 msgid "Chat exported successfully" msgstr "Чат успешно экспортирован" #: window.py:1279 msgid "Chat imported successfully" msgstr "Чат успешно импортирован" #: window.py:1309 msgid "Cannot open image" msgstr "Не удается открыть изображение" #: window.py:1386 msgid "This video is not available" msgstr "Это видео недоступно" #: window.ui:52 msgid "Menu" msgstr "Меню" #: window.ui:82 msgid "Toggle Sidebar" msgstr "Переключение боковой панели" #: window.ui:107 window.ui:587 msgid "Manage Models" msgstr "Управление Моделями" #: window.ui:121 msgid "Chat Menu" msgstr "Меню чата" #: window.ui:197 msgid "Attach File" msgstr "Прикрепить файл" #: window.ui:242 window.ui:1127 msgid "Send Message" msgstr "Отправить Сообщение" #: window.ui:290 window.ui:972 window.ui:1086 msgid "Preferences" msgstr "Настройки" #: window.ui:293 window.ui:1064 msgid "General" msgstr "Общие" #: window.ui:299 msgid "Use Remote Connection to Ollama" msgstr "Использовать удаленное подключение к Ollama" #: window.ui:305 msgid "URL of Remote Instance" msgstr "URL удаленного экземпляра" #: window.ui:312 msgid "Bearer Token (Optional)" msgstr "Токен на предъявителя (необязательно)" #: window.ui:322 msgid "Run Alpaca In Background" msgstr "Запуск Alpaca в фоновом режиме" #: window.ui:333 msgid "Temperature" msgstr "Температура" #: window.ui:334 msgid "" "The temperature of the model. Increasing the temperature will make the model " "answer more creatively. (Default: 0.8)" msgstr "" "Температура модели. При повышении температуры модель будет реагировать более " "творчески. (По умолчанию: 0,8)" #: window.ui:349 msgid "Seed" msgstr "Зерно" #: window.ui:350 msgid "" "Sets the random number seed to use for generation. Setting this to a " "specific number will make the model generate the same text for the same " "prompt. (Default: 0 (random))" msgstr "" "Задает начальное значение случайного числа, которое будет использоваться для " "генерации. Установка этого значения на определенное число заставит модель " "генерировать один и тот же текст для одного и того же запроса. (По " "умолчанию: 0 (случайный))" #: window.ui:364 msgid "Keep Alive Time" msgstr "Время сохранения жизни" #: window.ui:365 msgid "" "Controls how long the model will stay loaded into memory following the " "request in minutes (Default: 5)" msgstr "" "Определяет, как долго модель будет загружаться в память после запроса в " "минутах (по умолчанию: 5)." #: window.ui:381 msgid "Ollama Instance" msgstr "Экземпляр Ollama" #: window.ui:385 msgid "Ollama Overrides" msgstr "Переопределения Ollama" #: window.ui:386 msgid "" "Manage the arguments used on Ollama, any changes on this page only applies " "to the integrated instance, the instance will restart if you make changes." msgstr "" "Управляйте аргументами, используемыми в Ollama, любые изменения на этой " "странице применимы только к интегрированному экземпляру, экземпляр будет " "перезапущен, если вы внесете изменения." #: window.ui:482 window.ui:597 msgid "Create Model" msgstr "Создать Модель" #: window.ui:508 msgid "Base" msgstr "Основа" #: window.ui:526 msgid "Name" msgstr "Имя" #: window.ui:532 msgid "Context" msgstr "Контекст" #: window.ui:547 msgid "Template" msgstr "Шаблон" #: window.ui:553 msgid "" "Some models require a specific template. Please visit the model's website " "for more information if you're unsure." msgstr "" "Для некоторых моделей требуется специальный шаблон. Если вы не уверены, " "пожалуйста, посетите веб-сайт модели для получения дополнительной информации." #: window.ui:604 msgid "Search Model" msgstr "Поиск модели" #: window.ui:617 msgid "Search models" msgstr "Поиск моделей" #: window.ui:664 msgid "No Models Found" msgstr "Модели не найдены" #: window.ui:665 msgid "Try a different search" msgstr "Попробуйте другой поиск" #: window.ui:708 msgid "" "By downloading this model you accept the license agreement available on the " "model's website." msgstr "" "Загружая эту модель, вы принимаете лицензионное соглашение, доступное на веб-" "сайте модели." #: window.ui:745 msgid "Open with Default App" msgstr "Открыть с помощью приложения по умолчанию" #: window.ui:797 msgid "Previous" msgstr "Предыдущий" #: window.ui:840 msgid "Welcome to Alpaca" msgstr "Добро пожаловать в Alpaca" #: window.ui:841 msgid "Powered by Ollama" msgstr "При поддержке Ollama" #: window.ui:844 msgid "Ollama Website" msgstr "Веб-сайт Ollama" #: window.ui:860 msgid "Disclaimer" msgstr "Отказ от ответственности" #: window.ui:861 msgid "" "Alpaca and its developers are not liable for any damages to devices or " "software resulting from the execution of code generated by an AI model. " "Please exercise caution and review the code carefully before running it." msgstr "" "Alpaca и ее разработчики не несут ответственности за любой ущерб, " "причиненный устройствам или программному обеспечению в результате выполнения " "кода, сгенерированного с помощью модели искусственного интеллекта. " "Пожалуйста, будьте осторожны и внимательно ознакомьтесь с кодом перед его " "запуском." #: window.ui:872 msgid "Featured Models" msgstr "Рекомендуемые модели" #: window.ui:873 msgid "" "Alpaca works locally on your device, to start chatting you'll need an AI " "model, you can either pull models from this list or the 'Manage Models' menu " "later." msgstr "" "Alpaca работает локально на вашем устройстве, чтобы начать общение в чате, " "вам понадобится модель с искусственным интеллектом, вы можете выбрать модели " "из этого списка или из меню \"Управление моделями\" позже." #: window.ui:883 msgid "Built by Meta" msgstr "Построенный с помощью Meta" #: window.ui:901 msgid "Built by Google DeepMind" msgstr "Создан Google DeepMind" #: window.ui:919 msgid "Built by Microsoft" msgstr "Создан корпорацией Майкрософт" #: window.ui:937 msgid "Multimodal AI with image recognition" msgstr "Мультимодальный искусственный интеллект с распознаванием изображений" #: window.ui:966 msgid "Import Chat" msgstr "Импорт Чата" #: window.ui:976 msgid "Keyboard Shortcuts" msgstr "Комбинации Клавиш" #: window.ui:980 msgid "About Alpaca" msgstr "О Программе" #: window.ui:987 window.ui:1006 msgid "Rename Chat" msgstr "Переименовать Чат" #: window.ui:991 window.ui:1010 msgid "Export Chat" msgstr "Экспорт Чата" #: window.ui:995 msgid "Clear Chat" msgstr "Очистить Чат" #: window.ui:1002 msgid "Delete Chat" msgstr "Удалить Чат" #: window.ui:1018 msgid "From Existing Model" msgstr "Из существующей модели" #: window.ui:1022 msgid "From GGUF File (Experimental)" msgstr "Из файла GGUF (экспериментальный)" #: window.ui:1068 msgid "Close application" msgstr "Закрыть приложение" #: window.ui:1074 msgid "Import chat" msgstr "Импорт чата" #: window.ui:1080 msgid "Clear chat" msgstr "Очистить чат" #: window.ui:1092 msgid "New chat" msgstr "Новый чат" #: window.ui:1098 msgid "Show shortcuts window" msgstr "Показать окно комбинаций клавиш" #: window.ui:1105 msgid "Editor" msgstr "Редактор" #: window.ui:1109 msgid "Copy" msgstr "Копировать" #: window.ui:1115 msgid "Paste" msgstr "Вставить" #: window.ui:1121 msgid "Insert new line" msgstr "Вставить новую строку"