1269 lines
48 KiB
Plaintext
1269 lines
48 KiB
Plaintext
# Russian translations for Alpaca.
|
||
# Copyright (C) 2024 Jeffser
|
||
# This file is distributed under the same license as the Alpaca package.
|
||
# (YOUR NAME) <(EMAIL OPTIONAL)>
|
||
#
|
||
msgid ""
|
||
msgstr ""
|
||
"Project-Id-Version: 1.0.0\n"
|
||
"Report-Msgid-Bugs-To: \n"
|
||
"POT-Creation-Date: 2024-07-08 11:01+0800\n"
|
||
"PO-Revision-Date: 2024-07-08 17:18+0800\n"
|
||
"Last-Translator: (YOUR NAME) <(EMAIL OPTIONAL)>\n"
|
||
"Language-Team: Russian\n"
|
||
"Language: ru\n"
|
||
"MIME-Version: 1.0\n"
|
||
"Content-Type: text/plain; charset=UTF-8\n"
|
||
"Content-Transfer-Encoding: 8bit\n"
|
||
"X-Generator: Poedit 3.4.4\n"
|
||
"X-Poedit-Basepath: ../src\n"
|
||
"X-Poedit-SearchPath-0: .\n"
|
||
|
||
#: available_models_descriptions.py:2
|
||
msgid "Google Gemma 2 is now available in 2 sizes, 9B and 27B."
|
||
msgstr "Google Gemma 2 теперь доступен в двух размерах: 9B и 27B."
|
||
|
||
#: available_models_descriptions.py:3
|
||
msgid "Meta Llama 3: The most capable openly available LLM to date"
|
||
msgstr "Meta Llama 3: Самый мощный из открытых LLM на сегодняшний день"
|
||
|
||
#: available_models_descriptions.py:4
|
||
msgid "Qwen2 is a new series of large language models from Alibaba group"
|
||
msgstr "Qwen2 — новая серия больших языковых моделей от группы Alibaba"
|
||
|
||
#: available_models_descriptions.py:5
|
||
msgid ""
|
||
"An open-source Mixture-of-Experts code language model that achieves "
|
||
"performance comparable to GPT4-Turbo in code-specific tasks."
|
||
msgstr ""
|
||
"Модель языка кода Mixture-of-Experts с открытым исходным кодом, "
|
||
"обеспечивающая производительность, сравнимую с GPT4-Turbo, в задачах, "
|
||
"специфичных для кода."
|
||
|
||
#: available_models_descriptions.py:6
|
||
msgid ""
|
||
"Phi-3 is a family of lightweight 3B (Mini) and 14B (Medium) state-of-the-art "
|
||
"open models by Microsoft."
|
||
msgstr ""
|
||
"Phi-3 — это семейство легких современных открытых моделей 3B (Mini) и 14B "
|
||
"(Medium) от Microsoft."
|
||
|
||
#: available_models_descriptions.py:7
|
||
msgid ""
|
||
"Aya 23, released by Cohere, is a new family of state-of-the-art, "
|
||
"multilingual models that support 23 languages."
|
||
msgstr ""
|
||
"Aya 23, выпущенная компанией Cohere, представляет собой новое семейство "
|
||
"современных многоязычных моделей, поддерживающих 23 языка."
|
||
|
||
#: available_models_descriptions.py:8
|
||
msgid "The 7B model released by Mistral AI, updated to version 0.3."
|
||
msgstr "Модель 7Б, выпущенная Mistral AI, обновлена до версии 0.3."
|
||
|
||
#: available_models_descriptions.py:9
|
||
msgid ""
|
||
"A set of Mixture of Experts (MoE) model with open weights by Mistral AI in "
|
||
"8x7b and 8x22b parameter sizes."
|
||
msgstr ""
|
||
"Набор модели Mixture of Experts (MoE) с открытыми весами от Mistral AI с "
|
||
"размерами параметров 8x7b и 8x22b."
|
||
|
||
#: available_models_descriptions.py:10
|
||
msgid ""
|
||
"CodeGemma is a collection of powerful, lightweight models that can perform a "
|
||
"variety of coding tasks like fill-in-the-middle code completion, code "
|
||
"generation, natural language understanding, mathematical reasoning, and "
|
||
"instruction following."
|
||
msgstr ""
|
||
"CodeGemma — это набор мощных и легких моделей, которые могут выполнять "
|
||
"различные задачи кодирования, такие как завершение кода с заполнением "
|
||
"посередине, генерация кода, понимание естественного языка, математические "
|
||
"рассуждения и выполнение инструкций."
|
||
|
||
#: available_models_descriptions.py:11
|
||
msgid ""
|
||
"Command R is a Large Language Model optimized for conversational interaction "
|
||
"and long context tasks."
|
||
msgstr ""
|
||
"Command R — это большая языковая модель, оптимизированная для диалогового "
|
||
"взаимодействия и задач с длинным контекстом."
|
||
|
||
#: available_models_descriptions.py:12
|
||
msgid ""
|
||
"Command R+ is a powerful, scalable large language model purpose-built to "
|
||
"excel at real-world enterprise use cases."
|
||
msgstr ""
|
||
"Command R+ — это мощная масштабируемая модель большого языка, специально "
|
||
"созданная для достижения успеха в реальных корпоративных сценариях "
|
||
"использования."
|
||
|
||
#: available_models_descriptions.py:13
|
||
msgid ""
|
||
"🌋 LLaVA is a novel end-to-end trained large multimodal model that combines "
|
||
"a vision encoder and Vicuna for general-purpose visual and language "
|
||
"understanding. Updated to version 1.6."
|
||
msgstr ""
|
||
"🌋 LLaVA — это новая комплексная обученная большая мультимодальная модель, "
|
||
"которая сочетает в себе видеокодер и Vicuna для общего визуального и "
|
||
"языкового понимания. Обновлено до версии 1.6."
|
||
|
||
#: available_models_descriptions.py:14
|
||
msgid ""
|
||
"Gemma is a family of lightweight, state-of-the-art open models built by "
|
||
"Google DeepMind. Updated to version 1.1"
|
||
msgstr ""
|
||
"Gemma — это семейство легких современных открытых моделей, созданных Google "
|
||
"DeepMind. Обновлено до версии 1.1"
|
||
|
||
#: available_models_descriptions.py:15
|
||
msgid ""
|
||
"Qwen 1.5 is a series of large language models by Alibaba Cloud spanning from "
|
||
"0.5B to 110B parameters"
|
||
msgstr ""
|
||
"Qwen 1.5 — это серия крупных языковых моделей от Alibaba Cloud с параметрами "
|
||
"от 0,5 до 110 B"
|
||
|
||
#: available_models_descriptions.py:16
|
||
msgid ""
|
||
"Llama 2 is a collection of foundation language models ranging from 7B to 70B "
|
||
"parameters."
|
||
msgstr ""
|
||
"Llama 2 — это набор базовых языковых моделей с параметрами от 7B до 70B."
|
||
|
||
#: available_models_descriptions.py:17
|
||
msgid ""
|
||
"A large language model that can use text prompts to generate and discuss "
|
||
"code."
|
||
msgstr ""
|
||
"Большая языковая модель, которая может использовать текстовые подсказки для "
|
||
"создания и обсуждения кода."
|
||
|
||
#: available_models_descriptions.py:18
|
||
msgid ""
|
||
"Uncensored, 8x7b and 8x22b fine-tuned models based on the Mixtral mixture of "
|
||
"experts models that excels at coding tasks. Created by Eric Hartford."
|
||
msgstr ""
|
||
"Без цензуры, точно настроенные модели 8x7b и 8x22b, основанные на смеси "
|
||
"экспертных моделей Mixtral, которые превосходно справляются с задачами "
|
||
"кодирования. Создан Эриком Хартфордом."
|
||
|
||
#: available_models_descriptions.py:19
|
||
msgid "Uncensored Llama 2 model by George Sung and Jarrad Hope."
|
||
msgstr "Модель Llama 2 без цензуры от Джорджа Санга и Джаррада Хоупа."
|
||
|
||
#: available_models_descriptions.py:20
|
||
msgid ""
|
||
"DeepSeek Coder is a capable coding model trained on two trillion code and "
|
||
"natural language tokens."
|
||
msgstr ""
|
||
"DeepSeek Coder — это эффективная модель кодирования, обученная на двух "
|
||
"триллионах кода и токенах естественного языка."
|
||
|
||
#: available_models_descriptions.py:21
|
||
msgid ""
|
||
"A high-performing open embedding model with a large token context window."
|
||
msgstr ""
|
||
"Высокопроизводительная открытая модель внедрения с большим окном контекста "
|
||
"токена."
|
||
|
||
#: available_models_descriptions.py:22
|
||
msgid ""
|
||
"Phi-2: a 2.7B language model by Microsoft Research that demonstrates "
|
||
"outstanding reasoning and language understanding capabilities."
|
||
msgstr ""
|
||
"Phi-2: языковая модель 2,7B от Microsoft Research, демонстрирующая "
|
||
"выдающиеся способности к рассуждению и пониманию языка."
|
||
|
||
#: available_models_descriptions.py:23
|
||
msgid ""
|
||
"The uncensored Dolphin model based on Mistral that excels at coding tasks. "
|
||
"Updated to version 2.8."
|
||
msgstr ""
|
||
"Модель Dolphin без цензуры, основанная на Mistral, которая превосходно "
|
||
"справляется с задачами кодирования. Обновлено до версии 2.8."
|
||
|
||
#: available_models_descriptions.py:24
|
||
msgid ""
|
||
"Mistral OpenOrca is a 7 billion parameter model, fine-tuned on top of the "
|
||
"Mistral 7B model using the OpenOrca dataset."
|
||
msgstr ""
|
||
"Mistral OpenOrca — это модель с 7 миллиардами параметров, доработанная на "
|
||
"основе модели Mistral 7B с использованием набора данных OpenOrca."
|
||
|
||
#: available_models_descriptions.py:25
|
||
msgid ""
|
||
"A general-purpose model ranging from 3 billion parameters to 70 billion, "
|
||
"suitable for entry-level hardware."
|
||
msgstr ""
|
||
"Модель общего назначения с числом параметров от 3 до 70 миллиардов, "
|
||
"подходящая для аппаратного обеспечения начального уровня."
|
||
|
||
#: available_models_descriptions.py:26
|
||
msgid "State-of-the-art large embedding model from mixedbread.ai"
|
||
msgstr "Современная большая модель встраивания от mixbread.ai"
|
||
|
||
#: available_models_descriptions.py:27
|
||
msgid ""
|
||
"Dolphin 2.9 is a new model with 8B and 70B sizes by Eric Hartford based on "
|
||
"Llama 3 that has a variety of instruction, conversational, and coding skills."
|
||
msgstr ""
|
||
"Dolphin 2.9 — это новая модель размеров 8B и 70B, созданная Эриком "
|
||
"Хартфордом на основе Llama 3, которая обладает разнообразными навыками "
|
||
"обучения, общения и программирования."
|
||
|
||
#: available_models_descriptions.py:28
|
||
msgid ""
|
||
"StarCoder2 is the next generation of transparently trained open code LLMs "
|
||
"that comes in three sizes: 3B, 7B and 15B parameters."
|
||
msgstr ""
|
||
"StarCoder2 — это следующее поколение LLM с прозрачным обученным открытым "
|
||
"кодом, которое поставляется в трех размерах: параметры 3B, 7B и 15B."
|
||
|
||
#: available_models_descriptions.py:29
|
||
msgid "Llama 2 based model fine tuned to improve Chinese dialogue ability."
|
||
msgstr ""
|
||
"Модель на основе Llama 2 настроена для улучшения навыков диалога на "
|
||
"китайском языке."
|
||
|
||
#: available_models_descriptions.py:30
|
||
msgid ""
|
||
"Zephyr is a series of fine-tuned versions of the Mistral and Mixtral models "
|
||
"that are trained to act as helpful assistants."
|
||
msgstr ""
|
||
"Zephyr — это серия доработанных версий моделей Mistral и Mixtral, которые "
|
||
"обучены выполнять роль полезных помощников."
|
||
|
||
#: available_models_descriptions.py:31
|
||
msgid "Yi 1.5 is a high-performing, bilingual language model."
|
||
msgstr "Yi 1.5 — это высокопроизводительная двуязычная языковая модель."
|
||
|
||
#: available_models_descriptions.py:32
|
||
msgid ""
|
||
"The powerful family of models by Nous Research that excels at scientific "
|
||
"discussion and coding tasks."
|
||
msgstr ""
|
||
"Мощное семейство моделей от Nous Research, которое превосходно справляется с "
|
||
"задачами научного обсуждения и кодирования."
|
||
|
||
#: available_models_descriptions.py:33
|
||
msgid ""
|
||
"General use chat model based on Llama and Llama 2 with 2K to 16K context "
|
||
"sizes."
|
||
msgstr ""
|
||
"Модель чата общего использования на основе Llama и Llama 2 с размерами "
|
||
"контекста от 2 до 16 КБ."
|
||
|
||
#: available_models_descriptions.py:34
|
||
msgid ""
|
||
"Wizard Vicuna Uncensored is a 7B, 13B, and 30B parameter model based on "
|
||
"Llama 2 uncensored by Eric Hartford."
|
||
msgstr ""
|
||
"Wizard Vicuna Uncensored — это модель с параметрами 7B, 13B и 30B, "
|
||
"основанная на Llama 2 без цензуры Эрика Хартфорда."
|
||
|
||
#: available_models_descriptions.py:35
|
||
msgid ""
|
||
"The TinyLlama project is an open endeavor to train a compact 1.1B Llama "
|
||
"model on 3 trillion tokens."
|
||
msgstr ""
|
||
"Проект TinyLlama — это открытая попытка обучить компактную модель Llama "
|
||
"размером 1,1B на 3 триллионах токенов."
|
||
|
||
#: available_models_descriptions.py:36
|
||
msgid ""
|
||
"State of the art large language model from Microsoft AI with improved "
|
||
"performance on complex chat, multilingual, reasoning and agent use cases."
|
||
msgstr ""
|
||
"Современная модель большого языка от Microsoft AI с улучшенной "
|
||
"производительностью в сложных чатах, многоязычных средах, рассуждениях и "
|
||
"сценариях использования агентов."
|
||
|
||
#: available_models_descriptions.py:37
|
||
msgid ""
|
||
"StarCoder is a code generation model trained on 80+ programming languages."
|
||
msgstr ""
|
||
"StarCoder — это модель генерации кода, обученная на более чем 80 языках "
|
||
"программирования."
|
||
|
||
#: available_models_descriptions.py:38
|
||
msgid ""
|
||
"Codestral is Mistral AI’s first-ever code model designed for code generation "
|
||
"tasks."
|
||
msgstr ""
|
||
"Codestral — это первая модель кода Mistral AI, предназначенная для задач "
|
||
"генерации кода."
|
||
|
||
#: available_models_descriptions.py:39
|
||
msgid ""
|
||
"A family of open-source models trained on a wide variety of data, surpassing "
|
||
"ChatGPT on various benchmarks. Updated to version 3.5-0106."
|
||
msgstr ""
|
||
"Семейство моделей с открытым исходным кодом, обученных на широком спектре "
|
||
"данных, превосходящих ChatGPT по различным критериям. Обновлено до версии "
|
||
"3.5-0106."
|
||
|
||
#: available_models_descriptions.py:40
|
||
msgid ""
|
||
"An experimental 1.1B parameter model trained on the new Dolphin 2.8 dataset "
|
||
"by Eric Hartford and based on TinyLlama."
|
||
msgstr ""
|
||
"Экспериментальная модель с параметрами 1.1B, обученная на новом наборе "
|
||
"данных Dolphin 2.8 Эрика Хартфорда и основанная на TinyLlama."
|
||
|
||
#: available_models_descriptions.py:41
|
||
msgid ""
|
||
"OpenHermes 2.5 is a 7B model fine-tuned by Teknium on Mistral with fully "
|
||
"open datasets."
|
||
msgstr ""
|
||
"OpenHermes 2.5 — это модель 7B, доработанная Teknium на Mistral с полностью "
|
||
"открытыми наборами данных."
|
||
|
||
#: available_models_descriptions.py:42
|
||
msgid "State-of-the-art code generation model"
|
||
msgstr "Современная модель генерации кода"
|
||
|
||
#: available_models_descriptions.py:43
|
||
msgid ""
|
||
"Stable Code 3B is a coding model with instruct and code completion variants "
|
||
"on par with models such as Code Llama 7B that are 2.5x larger."
|
||
msgstr ""
|
||
"Стабильный код 3B — это модель кодирования с вариантами инструкций и "
|
||
"завершения кода наравне с такими моделями, как Code Llama 7B, которые в 2,5 "
|
||
"раза больше."
|
||
|
||
#: available_models_descriptions.py:44
|
||
msgid ""
|
||
"A fine-tuned model based on Mistral with good coverage of domain and "
|
||
"language."
|
||
msgstr ""
|
||
"Доработанная модель на базе Mistral с хорошим охватом предметной области и "
|
||
"языка."
|
||
|
||
#: available_models_descriptions.py:45
|
||
msgid "Model focused on math and logic problems"
|
||
msgstr "Модель ориентирована на математические и логические задачи"
|
||
|
||
#: available_models_descriptions.py:46
|
||
msgid ""
|
||
"CodeQwen1.5 is a large language model pretrained on a large amount of code "
|
||
"data."
|
||
msgstr ""
|
||
"CodeQwen1.5 — это большая языковая модель, предварительно обученная на "
|
||
"большом объеме данных кода."
|
||
|
||
#: available_models_descriptions.py:47
|
||
msgid "Code generation model based on Code Llama."
|
||
msgstr "Модель генерации кода на основе Code Llama."
|
||
|
||
#: available_models_descriptions.py:48
|
||
msgid ""
|
||
"Stable LM 2 is a state-of-the-art 1.6B and 12B parameter language model "
|
||
"trained on multilingual data in English, Spanish, German, Italian, French, "
|
||
"Portuguese, and Dutch."
|
||
msgstr ""
|
||
"Stable LM 2 — это современная языковая модель с параметрами 1,6B и 12B, "
|
||
"обученная на многоязычных данных на английском, испанском, немецком, "
|
||
"итальянском, французском, португальском и голландском языках."
|
||
|
||
#: available_models_descriptions.py:49
|
||
msgid ""
|
||
"A 7B and 15B uncensored variant of the Dolphin model family that excels at "
|
||
"coding, based on StarCoder2."
|
||
msgstr ""
|
||
"Вариант семейства моделей Dolphin 7B и 15B без цензуры, превосходный в "
|
||
"кодировании, на основе StarCoder2."
|
||
|
||
#: available_models_descriptions.py:50
|
||
msgid "Embedding models on very large sentence level datasets."
|
||
msgstr ""
|
||
"Встраивание моделей в очень большие наборы данных на уровне предложений."
|
||
|
||
#: available_models_descriptions.py:51
|
||
msgid "General use models based on Llama and Llama 2 from Nous Research."
|
||
msgstr "Модели общего пользования на базе Llama и Llama 2 от Nous Research."
|
||
|
||
#: available_models_descriptions.py:52
|
||
msgid ""
|
||
"Starling is a large language model trained by reinforcement learning from AI "
|
||
"feedback focused on improving chatbot helpfulness."
|
||
msgstr ""
|
||
"Starling — это большая языковая модель, обученная с помощью обучения с "
|
||
"подкреплением на основе отзывов искусственного интеллекта, направленная на "
|
||
"повышение полезности чат-бота."
|
||
|
||
#: available_models_descriptions.py:53
|
||
msgid ""
|
||
"SQLCoder is a code completion model fined-tuned on StarCoder for SQL "
|
||
"generation tasks"
|
||
msgstr ""
|
||
"SQLCoder — это модель завершения кода, настроенная в StarCoder для задач "
|
||
"генерации SQL"
|
||
|
||
#: available_models_descriptions.py:54
|
||
msgid ""
|
||
"Orca 2 is built by Microsoft research, and are a fine-tuned version of "
|
||
"Meta's Llama 2 models. The model is designed to excel particularly in "
|
||
"reasoning."
|
||
msgstr ""
|
||
"Orca 2 создана в результате исследований Microsoft и представляет собой "
|
||
"доработанную версию моделей Meta 2 Llama 2. Модель разработана, чтобы "
|
||
"преуспеть, в частности, в рассуждениях."
|
||
|
||
#: available_models_descriptions.py:55
|
||
msgid ""
|
||
"This model extends LLama-3 8B's context length from 8k to over 1m tokens."
|
||
msgstr ""
|
||
"Эта модель увеличивает длину контекста LLama-3 8B с 8 тыс. до более чем 1 "
|
||
"млн токенов."
|
||
|
||
#: available_models_descriptions.py:56
|
||
msgid "An advanced language model crafted with 2 trillion bilingual tokens."
|
||
msgstr ""
|
||
"Усовершенствованная языковая модель, созданная на основе 2 триллионов "
|
||
"двуязычных токенов."
|
||
|
||
#: available_models_descriptions.py:57
|
||
msgid "An extension of Llama 2 that supports a context of up to 128k tokens."
|
||
msgstr "Расширение Llama 2, поддерживающее контекст до 128 тыс. токенов."
|
||
|
||
#: available_models_descriptions.py:58
|
||
msgid ""
|
||
"A model from NVIDIA based on Llama 3 that excels at conversational question "
|
||
"answering (QA) and retrieval-augmented generation (RAG)."
|
||
msgstr ""
|
||
"Модель от NVIDIA на основе Llama 3, которая превосходно справляется с "
|
||
"диалоговым ответом на вопросы (QA) и генерацией с расширенным поиском (RAG)."
|
||
|
||
#: available_models_descriptions.py:59
|
||
msgid ""
|
||
"A compact, yet powerful 10.7B large language model designed for single-turn "
|
||
"conversation."
|
||
msgstr ""
|
||
"Компактная, но мощная языковая модель с поддержкой 10,7 ББ, предназначенная "
|
||
"для одноразового разговора."
|
||
|
||
#: available_models_descriptions.py:60
|
||
msgid ""
|
||
"Conversational model based on Llama 2 that performs competitively on various "
|
||
"benchmarks."
|
||
msgstr ""
|
||
"Диалоговая модель на базе Llama 2, конкурентоспособная по различным "
|
||
"показателям."
|
||
|
||
#: available_models_descriptions.py:61
|
||
msgid "A family of open foundation models by IBM for Code Intelligence"
|
||
msgstr "Семейство моделей открытого фонда от IBM для Code Intelligence"
|
||
|
||
#: available_models_descriptions.py:62
|
||
msgid ""
|
||
"2.7B uncensored Dolphin model by Eric Hartford, based on the Phi language "
|
||
"model by Microsoft Research."
|
||
msgstr ""
|
||
"2.7B модель Dolphin без цензуры Эрика Хартфорда, основанная на модели языка "
|
||
"Phi, разработанной Microsoft Research."
|
||
|
||
#: available_models_descriptions.py:63
|
||
msgid "General use model based on Llama 2."
|
||
msgstr "Модель общего назначения на базе Llama 2."
|
||
|
||
#: available_models_descriptions.py:64
|
||
msgid ""
|
||
"A companion assistant trained in philosophy, psychology, and personal "
|
||
"relationships. Based on Mistral."
|
||
msgstr ""
|
||
"Помощник-компаньон, прошедший обучение в области философии, психологии и "
|
||
"личных отношений. На базе Мистраля."
|
||
|
||
#: available_models_descriptions.py:65
|
||
msgid ""
|
||
"Llama 2 based model fine tuned on an Orca-style dataset. Originally called "
|
||
"Free Willy."
|
||
msgstr ""
|
||
"Модель на основе Llama 2 точно настроена на наборе данных в стиле Orca. "
|
||
"Первоначально назывался Свободный Вилли."
|
||
|
||
#: available_models_descriptions.py:66
|
||
msgid ""
|
||
"BakLLaVA is a multimodal model consisting of the Mistral 7B base model "
|
||
"augmented with the LLaVA architecture."
|
||
msgstr ""
|
||
"BakLLaVA — мультимодальная модель, состоящая из базовой модели Mistral 7B, "
|
||
"дополненной архитектурой LLaVA."
|
||
|
||
#: available_models_descriptions.py:67
|
||
msgid ""
|
||
"A LLaVA model fine-tuned from Llama 3 Instruct with better scores in several "
|
||
"benchmarks."
|
||
msgstr ""
|
||
"Модель LLaVA, доработанная на основе Llama 3 Instruct, с лучшими "
|
||
"показателями в нескольких тестах."
|
||
|
||
#: available_models_descriptions.py:68
|
||
msgid "Uncensored version of Wizard LM model"
|
||
msgstr "Версия модели Wizard LM без цензуры"
|
||
|
||
#: available_models_descriptions.py:69
|
||
msgid ""
|
||
"Fine-tuned Llama 2 model to answer medical questions based on an open source "
|
||
"medical dataset."
|
||
msgstr ""
|
||
"Точная настройка модели Llama 2 для ответа на медицинские вопросы на основе "
|
||
"набора медицинских данных с открытым исходным кодом."
|
||
|
||
#: available_models_descriptions.py:70
|
||
msgid "The Nous Hermes 2 model from Nous Research, now trained over Mixtral."
|
||
msgstr ""
|
||
"Модель Nous Hermes 2 от Nous Research, которая теперь обучена на Mixtral."
|
||
|
||
#: available_models_descriptions.py:71
|
||
msgid "An extension of Mistral to support context windows of 64K or 128K."
|
||
msgstr ""
|
||
"Расширение Mistral для поддержки контекстных окон размером 64 КБ или 128 КБ."
|
||
|
||
#: available_models_descriptions.py:72
|
||
msgid ""
|
||
"A suite of text embedding models by Snowflake, optimized for performance."
|
||
msgstr ""
|
||
"Набор моделей встраивания текста от Snowflake, оптимизированных для "
|
||
"повышения производительности."
|
||
|
||
#: available_models_descriptions.py:73
|
||
msgid ""
|
||
"An expansion of Llama 2 that specializes in integrating both general "
|
||
"language understanding and domain-specific knowledge, particularly in "
|
||
"programming and mathematics."
|
||
msgstr ""
|
||
"Расширение Llama 2, которое специализируется на интеграции как общего "
|
||
"понимания языка, так и знаний по конкретной предметной области, особенно в "
|
||
"области программирования и математики."
|
||
|
||
#: available_models_descriptions.py:74
|
||
msgid "Great code generation model based on Llama2."
|
||
msgstr "Отличная модель генерации кода на основе Llama2."
|
||
|
||
#: available_models_descriptions.py:75
|
||
msgid ""
|
||
"Open-source medical large language model adapted from Llama 2 to the medical "
|
||
"domain."
|
||
msgstr ""
|
||
"Большая языковая модель с открытым исходным кодом, адаптированная из Llama "
|
||
"2 для медицинской сферы."
|
||
|
||
#: available_models_descriptions.py:76
|
||
msgid ""
|
||
"moondream2 is a small vision language model designed to run efficiently on "
|
||
"edge devices."
|
||
msgstr ""
|
||
"moondream2 — это небольшая языковая модель видения, предназначенная для "
|
||
"эффективной работы на периферийных устройствах."
|
||
|
||
#: available_models_descriptions.py:77
|
||
msgid "Uncensored Llama2 based model with support for a 16K context window."
|
||
msgstr ""
|
||
"Модель на основе Llama2 без цензуры с поддержкой контекстного окна 16 КБ."
|
||
|
||
#: available_models_descriptions.py:78
|
||
msgid ""
|
||
"Nexus Raven is a 13B instruction tuned model for function calling tasks."
|
||
msgstr ""
|
||
"Nexus Raven — это модель с поддержкой 13B инструкций для задач вызова "
|
||
"функций."
|
||
|
||
#: available_models_descriptions.py:79
|
||
msgid ""
|
||
"🎩 Magicoder is a family of 7B parameter models trained on 75K synthetic "
|
||
"instruction data using OSS-Instruct, a novel approach to enlightening LLMs "
|
||
"with open-source code snippets."
|
||
msgstr ""
|
||
"🎩 Magicoder — это семейство моделей с 7B параметрами, обученных на 75 000 "
|
||
"синтетических данных инструкций с использованием OSS-Instruct, нового "
|
||
"подхода к обучению LLM с помощью фрагментов кода с открытым исходным кодом."
|
||
|
||
#: available_models_descriptions.py:80
|
||
msgid "A strong, economical, and efficient Mixture-of-Experts language model."
|
||
msgstr "Сильная, экономичная и эффективная языковая модель «Смесь экспертов»."
|
||
|
||
#: available_models_descriptions.py:81
|
||
msgid ""
|
||
"A lightweight chat model allowing accurate, and responsive output without "
|
||
"requiring high-end hardware."
|
||
msgstr ""
|
||
"Облегченная модель чата, обеспечивающая точный и быстрый вывод без "
|
||
"необходимости использования высокопроизводительного оборудования."
|
||
|
||
#: available_models_descriptions.py:82
|
||
msgid ""
|
||
"A high-performing code instruct model created by merging two existing code "
|
||
"models."
|
||
msgstr ""
|
||
"Высокопроизводительная модель инструкций кода, созданная путем объединения "
|
||
"двух существующих моделей кода."
|
||
|
||
#: available_models_descriptions.py:83
|
||
msgid "A new small LLaVA model fine-tuned from Phi 3 Mini."
|
||
msgstr "Новая маленькая модель LLaVA, доработанная на основе Phi 3 Mini."
|
||
|
||
#: available_models_descriptions.py:84
|
||
msgid ""
|
||
"MistralLite is a fine-tuned model based on Mistral with enhanced "
|
||
"capabilities of processing long contexts."
|
||
msgstr ""
|
||
"MistralLite — доработанная модель на базе Mistral с расширенными "
|
||
"возможностями обработки длинных контекстов."
|
||
|
||
#: available_models_descriptions.py:85
|
||
msgid ""
|
||
"Wizard Vicuna is a 13B parameter model based on Llama 2 trained by "
|
||
"MelodysDreamj."
|
||
msgstr ""
|
||
"Wizard Vicuna — это модель с 13B параметрами, основанная на Llama 2, "
|
||
"обученная MelodysDreamj."
|
||
|
||
#: available_models_descriptions.py:86
|
||
msgid "7B parameter text-to-SQL model made by MotherDuck and Numbers Station."
|
||
msgstr ""
|
||
"Модель преобразования текста в SQL с 7B параметрами, созданная MotherDuck и "
|
||
"Numbers Station."
|
||
|
||
#: available_models_descriptions.py:87
|
||
msgid ""
|
||
"A language model created by combining two fine-tuned Llama 2 70B models into "
|
||
"one."
|
||
msgstr ""
|
||
"Языковая модель, созданная путем объединения двух точно настроенных моделей "
|
||
"Llama 2 70B в одну."
|
||
|
||
#: available_models_descriptions.py:88
|
||
msgid ""
|
||
"MegaDolphin-2.2-120b is a transformation of Dolphin-2.2-70b created by "
|
||
"interleaving the model with itself."
|
||
msgstr ""
|
||
"MegaDolphin-2.2-120b — это трансформация Dolphin-2.2-70b, созданная путем "
|
||
"чередования модели самой с собой."
|
||
|
||
#: available_models_descriptions.py:89
|
||
msgid ""
|
||
"Merge of the Open Orca OpenChat model and the Garage-bAInd Platypus 2 model. "
|
||
"Designed for chat and code generation."
|
||
msgstr ""
|
||
"Слияние модели Open Orca OpenChat и модели Garage-bAInd Platypus 2. "
|
||
"Предназначен для чата и генерации кода."
|
||
|
||
#: available_models_descriptions.py:90
|
||
msgid ""
|
||
"A top-performing mixture of experts model, fine-tuned with high-quality data."
|
||
msgstr ""
|
||
"Высокоэффективная модель экспертной модели, точно настроенная на основе "
|
||
"высококачественных данных."
|
||
|
||
#: available_models_descriptions.py:91
|
||
msgid "A 7B chat model fine-tuned with high-quality data and based on Zephyr."
|
||
msgstr ""
|
||
"Модель чата 7B, настроенная на основе высококачественных данных и основанная "
|
||
"на Zephyr."
|
||
|
||
#: available_models_descriptions.py:92
|
||
msgid "DBRX is an open, general-purpose LLM created by Databricks."
|
||
msgstr "DBRX — это открытая LLM общего назначения, созданная Databricks."
|
||
|
||
#: available_models_descriptions.py:93
|
||
msgid ""
|
||
"Falcon2 is an 11B parameters causal decoder-only model built by TII and "
|
||
"trained over 5T tokens."
|
||
msgstr ""
|
||
"Falcon2 — это модель причинного декодера с 11B параметров, созданная TII и "
|
||
"обученная на токенах 5T."
|
||
|
||
#: available_models_descriptions.py:94
|
||
msgid ""
|
||
"A robust conversational model designed to be used for both chat and instruct "
|
||
"use cases."
|
||
msgstr ""
|
||
"Надежная диалоговая модель, предназначенная для использования как в чате, "
|
||
"так и для инструкций."
|
||
|
||
#: dialogs.py:17
|
||
msgid "Chat cannot be cleared while receiving a message"
|
||
msgstr "Чат не может быть удален при получении сообщения"
|
||
|
||
#: dialogs.py:20
|
||
msgid "Clear Chat?"
|
||
msgstr "Очистить чат?"
|
||
|
||
#: dialogs.py:21
|
||
msgid "Are you sure you want to clear the chat?"
|
||
msgstr "Вы уверены, что хотите очистить чат?"
|
||
|
||
#: dialogs.py:24 dialogs.py:45 dialogs.py:72 dialogs.py:99 dialogs.py:121
|
||
#: dialogs.py:142 dialogs.py:163 dialogs.py:223 dialogs.py:308 dialogs.py:346
|
||
msgid "Cancel"
|
||
msgstr "Отмена"
|
||
|
||
#: dialogs.py:25
|
||
msgid "Clear"
|
||
msgstr "Очистить"
|
||
|
||
#: dialogs.py:41
|
||
msgid "Delete Chat?"
|
||
msgstr "Удалить чат?"
|
||
|
||
#: dialogs.py:42 dialogs.py:139
|
||
msgid "Are you sure you want to delete '{}'?"
|
||
msgstr "Вы уверены, что хотите удалить '{}'?"
|
||
|
||
#: dialogs.py:46 dialogs.py:143
|
||
msgid "Delete"
|
||
msgstr "Удалить"
|
||
|
||
#: dialogs.py:66
|
||
msgid "Rename Chat?"
|
||
msgstr "Переименовать чат?"
|
||
|
||
#: dialogs.py:67
|
||
msgid "Renaming '{}'"
|
||
msgstr "Переименование '{}'"
|
||
|
||
#: dialogs.py:73
|
||
msgid "Rename"
|
||
msgstr "Переименовать"
|
||
|
||
#: dialogs.py:84 window.py:58 window.py:1042 window.py:1104 window.ui:41
|
||
msgid "New Chat"
|
||
msgstr "Новый Чат"
|
||
|
||
#: dialogs.py:93
|
||
msgid "Create Chat?"
|
||
msgstr "Создать чат?"
|
||
|
||
#: dialogs.py:94
|
||
msgid "Enter name for new chat"
|
||
msgstr "Введите название для нового чата"
|
||
|
||
#: dialogs.py:100 window.ui:469
|
||
msgid "Create"
|
||
msgstr "Создать"
|
||
|
||
#: dialogs.py:117
|
||
msgid "Stop Download?"
|
||
msgstr "Остановить загрузку?"
|
||
|
||
#: dialogs.py:118
|
||
msgid "Are you sure you want to stop pulling '{} ({})'?"
|
||
msgstr "Вы уверены, что хотите прекратить извлечение '{} ({})'?"
|
||
|
||
#: dialogs.py:122
|
||
msgid "Stop"
|
||
msgstr "Стоп"
|
||
|
||
#: dialogs.py:138
|
||
msgid "Delete Model?"
|
||
msgstr "Удалить модель?"
|
||
|
||
#: dialogs.py:159
|
||
msgid "Remove Attachment?"
|
||
msgstr "Удалить вложение?"
|
||
|
||
#: dialogs.py:160
|
||
msgid "Are you sure you want to remove attachment?"
|
||
msgstr "Вы уверены, что хотите удалить вложение?"
|
||
|
||
#: dialogs.py:164
|
||
msgid "Remove"
|
||
msgstr "Удалить"
|
||
|
||
#: dialogs.py:189
|
||
msgid "Connection Error"
|
||
msgstr "Ошибка Соединения"
|
||
|
||
#: dialogs.py:190
|
||
msgid "The remote instance has disconnected"
|
||
msgstr "Удаленный экземпляр отключился"
|
||
|
||
#: dialogs.py:194
|
||
msgid "Close Alpaca"
|
||
msgstr "Закрыть Программу"
|
||
|
||
#: dialogs.py:195
|
||
msgid "Use local instance"
|
||
msgstr "Использовать локальный экземпляр"
|
||
|
||
#: dialogs.py:196
|
||
msgid "Connect"
|
||
msgstr "Подключить"
|
||
|
||
#: dialogs.py:219
|
||
msgid "Select Model"
|
||
msgstr "Выбор модели"
|
||
|
||
#: dialogs.py:220
|
||
msgid "This model will be used as the base for the new model"
|
||
msgstr "Эта модель будет использована в качестве базовой для новой модели"
|
||
|
||
#: dialogs.py:224 dialogs.py:309 dialogs.py:347
|
||
msgid "Accept"
|
||
msgstr "Принять"
|
||
|
||
#: dialogs.py:238
|
||
msgid "An error occurred while creating the model"
|
||
msgstr "При создании модели произошла ошибка"
|
||
|
||
#: dialogs.py:258 window.py:1403
|
||
msgid "Image recognition is only available on specific models"
|
||
msgstr "Распознавание изображений доступно только на определенных моделях"
|
||
|
||
#: dialogs.py:294
|
||
msgid "This video does not have any transcriptions"
|
||
msgstr "В этом видео нет никаких расшифровок"
|
||
|
||
#: dialogs.py:303
|
||
msgid "Attach YouTube Video?"
|
||
msgstr "Прикрепить видео с YouTube?"
|
||
|
||
#: dialogs.py:304
|
||
msgid ""
|
||
"{}\n"
|
||
"\n"
|
||
"Please select a transcript to include"
|
||
msgstr ""
|
||
"{}\n"
|
||
"\n"
|
||
"Пожалуйста, выберите расшифровку для включения"
|
||
|
||
#: dialogs.py:337
|
||
msgid "An error occurred while extracting text from the website"
|
||
msgstr "При извлечении текста с веб-сайта произошла ошибка"
|
||
|
||
#: dialogs.py:342
|
||
msgid "Attach Website? (Experimental)"
|
||
msgstr "Прикрепить веб-сайт? (Экспериментальный)"
|
||
|
||
#: dialogs.py:343
|
||
msgid ""
|
||
"Are you sure you want to attach\n"
|
||
"'{}'?"
|
||
msgstr ""
|
||
"Вы уверены, что хотите прикрепить\n"
|
||
"\"{}\"?"
|
||
|
||
#: gtk/help-overlay.ui:11
|
||
msgctxt "shortcut window"
|
||
msgid "General"
|
||
msgstr "Общие"
|
||
|
||
#: gtk/help-overlay.ui:14
|
||
msgctxt "shortcut window"
|
||
msgid "Show Shortcuts"
|
||
msgstr "Показывать комбинации клавиш"
|
||
|
||
#: gtk/help-overlay.ui:20
|
||
msgctxt "shortcut window"
|
||
msgid "Quit"
|
||
msgstr "Выйти"
|
||
|
||
#: window.py:167
|
||
msgid "Message edited successfully"
|
||
msgstr "Сообщение успешно изменено"
|
||
|
||
#: window.py:182
|
||
msgid "Please select a model before chatting"
|
||
msgstr "Пожалуйста, выберите модель перед началом общения"
|
||
|
||
#: window.py:249
|
||
msgid "Close"
|
||
msgstr "Закрыть"
|
||
|
||
#: window.py:250 window.ui:813
|
||
msgid "Next"
|
||
msgstr "Следующий"
|
||
|
||
#: window.py:283 window.py:294
|
||
msgid "Failed to connect to server"
|
||
msgstr "Не удалось подключиться к серверу"
|
||
|
||
#: window.py:301
|
||
msgid "Pulling in the background..."
|
||
msgstr "Извлечение в фоновом режиме..."
|
||
|
||
#: window.py:353
|
||
msgid "Stop Creating '{}'"
|
||
msgstr "Остановить создание '{}'"
|
||
|
||
#: window.py:390
|
||
msgid "image"
|
||
msgstr "изображение"
|
||
|
||
#: window.py:458
|
||
msgid "Message copied to the clipboard"
|
||
msgstr "Сообщение скопировано в буфер обмена"
|
||
|
||
#: window.py:559
|
||
msgid "Remove Message"
|
||
msgstr "Удалить Сообщение"
|
||
|
||
#: window.py:564 window.py:835
|
||
msgid "Copy Message"
|
||
msgstr "Копировать Сообщение"
|
||
|
||
#: window.py:569
|
||
msgid "Edit Message"
|
||
msgstr "Изменить Сообщение"
|
||
|
||
#: window.py:627
|
||
msgid "Missing Image"
|
||
msgstr "Изображение Отсутствует"
|
||
|
||
#: window.py:643
|
||
msgid "Missing image"
|
||
msgstr "Изображение отсутствует"
|
||
|
||
#: window.py:723
|
||
msgid "Remove '{} ({})'"
|
||
msgstr "Удалить '{} ({})'"
|
||
|
||
#: window.py:861
|
||
msgid "Code copied to the clipboard"
|
||
msgstr "Код скопирован в буфер обмена"
|
||
|
||
#: window.py:934
|
||
msgid "Task Complete"
|
||
msgstr "Задача выполнена"
|
||
|
||
#: window.py:934
|
||
msgid "Model '{}' pulled successfully."
|
||
msgstr "Модель '{}' успешно извлечена."
|
||
|
||
#: window.py:939
|
||
msgid "Pull Model Error"
|
||
msgstr "Ошибка Извлечения Модели"
|
||
|
||
#: window.py:939
|
||
msgid "Failed to pull model '{}' due to network error."
|
||
msgstr "Не удалось извлечь модель '{}' из-за сетевой ошибки."
|
||
|
||
#: window.py:970
|
||
msgid "Stop Pulling '{} ({})'"
|
||
msgstr "Остановить извлечение '{} ({})'"
|
||
|
||
#: window.py:1010
|
||
msgid "Image Recognition"
|
||
msgstr "Распознавание изображений"
|
||
|
||
#: window.py:1118
|
||
msgid "Model deleted successfully"
|
||
msgstr "Модель успешно удалена"
|
||
|
||
#: window.py:1192
|
||
msgid "There was an error with the local Ollama instance, so it has been reset"
|
||
msgstr ""
|
||
"Произошла ошибка с локальным экземпляром Ollama, поэтому он был сброшен"
|
||
|
||
#: window.py:1211
|
||
msgid "Chat exported successfully"
|
||
msgstr "Чат успешно экспортирован"
|
||
|
||
#: window.py:1279
|
||
msgid "Chat imported successfully"
|
||
msgstr "Чат успешно импортирован"
|
||
|
||
#: window.py:1309
|
||
msgid "Cannot open image"
|
||
msgstr "Не удается открыть изображение"
|
||
|
||
#: window.py:1386
|
||
msgid "This video is not available"
|
||
msgstr "Это видео недоступно"
|
||
|
||
#: window.ui:52
|
||
msgid "Menu"
|
||
msgstr "Меню"
|
||
|
||
#: window.ui:82
|
||
msgid "Toggle Sidebar"
|
||
msgstr "Переключение боковой панели"
|
||
|
||
#: window.ui:107 window.ui:587
|
||
msgid "Manage Models"
|
||
msgstr "Управление Моделями"
|
||
|
||
#: window.ui:121
|
||
msgid "Chat Menu"
|
||
msgstr "Меню чата"
|
||
|
||
#: window.ui:197
|
||
msgid "Attach File"
|
||
msgstr "Прикрепить файл"
|
||
|
||
#: window.ui:242 window.ui:1127
|
||
msgid "Send Message"
|
||
msgstr "Отправить Сообщение"
|
||
|
||
#: window.ui:290 window.ui:972 window.ui:1086
|
||
msgid "Preferences"
|
||
msgstr "Настройки"
|
||
|
||
#: window.ui:293 window.ui:1064
|
||
msgid "General"
|
||
msgstr "Общие"
|
||
|
||
#: window.ui:299
|
||
msgid "Use Remote Connection to Ollama"
|
||
msgstr "Использовать удаленное подключение к Ollama"
|
||
|
||
#: window.ui:305
|
||
msgid "URL of Remote Instance"
|
||
msgstr "URL удаленного экземпляра"
|
||
|
||
#: window.ui:312
|
||
msgid "Bearer Token (Optional)"
|
||
msgstr "Токен на предъявителя (необязательно)"
|
||
|
||
#: window.ui:322
|
||
msgid "Run Alpaca In Background"
|
||
msgstr "Запуск Alpaca в фоновом режиме"
|
||
|
||
#: window.ui:333
|
||
msgid "Temperature"
|
||
msgstr "Температура"
|
||
|
||
#: window.ui:334
|
||
msgid ""
|
||
"The temperature of the model. Increasing the temperature will make the model "
|
||
"answer more creatively. (Default: 0.8)"
|
||
msgstr ""
|
||
"Температура модели. При повышении температуры модель будет реагировать более "
|
||
"творчески. (По умолчанию: 0,8)"
|
||
|
||
#: window.ui:349
|
||
msgid "Seed"
|
||
msgstr "Зерно"
|
||
|
||
#: window.ui:350
|
||
msgid ""
|
||
"Sets the random number seed to use for generation. Setting this to a "
|
||
"specific number will make the model generate the same text for the same "
|
||
"prompt. (Default: 0 (random))"
|
||
msgstr ""
|
||
"Задает начальное значение случайного числа, которое будет использоваться для "
|
||
"генерации. Установка этого значения на определенное число заставит модель "
|
||
"генерировать один и тот же текст для одного и того же запроса. (По "
|
||
"умолчанию: 0 (случайный))"
|
||
|
||
#: window.ui:364
|
||
msgid "Keep Alive Time"
|
||
msgstr "Время сохранения жизни"
|
||
|
||
#: window.ui:365
|
||
msgid ""
|
||
"Controls how long the model will stay loaded into memory following the "
|
||
"request in minutes (Default: 5)"
|
||
msgstr ""
|
||
"Определяет, как долго модель будет загружаться в память после запроса в "
|
||
"минутах (по умолчанию: 5)."
|
||
|
||
#: window.ui:381
|
||
msgid "Ollama Instance"
|
||
msgstr "Экземпляр Ollama"
|
||
|
||
#: window.ui:385
|
||
msgid "Ollama Overrides"
|
||
msgstr "Переопределения Ollama"
|
||
|
||
#: window.ui:386
|
||
msgid ""
|
||
"Manage the arguments used on Ollama, any changes on this page only applies "
|
||
"to the integrated instance, the instance will restart if you make changes."
|
||
msgstr ""
|
||
"Управляйте аргументами, используемыми в Ollama, любые изменения на этой "
|
||
"странице применимы только к интегрированному экземпляру, экземпляр будет "
|
||
"перезапущен, если вы внесете изменения."
|
||
|
||
#: window.ui:482 window.ui:597
|
||
msgid "Create Model"
|
||
msgstr "Создать Модель"
|
||
|
||
#: window.ui:508
|
||
msgid "Base"
|
||
msgstr "Основа"
|
||
|
||
#: window.ui:526
|
||
msgid "Name"
|
||
msgstr "Имя"
|
||
|
||
#: window.ui:532
|
||
msgid "Context"
|
||
msgstr "Контекст"
|
||
|
||
#: window.ui:547
|
||
msgid "Template"
|
||
msgstr "Шаблон"
|
||
|
||
#: window.ui:553
|
||
msgid ""
|
||
"Some models require a specific template. Please visit the model's website "
|
||
"for more information if you're unsure."
|
||
msgstr ""
|
||
"Для некоторых моделей требуется специальный шаблон. Если вы не уверены, "
|
||
"пожалуйста, посетите веб-сайт модели для получения дополнительной информации."
|
||
|
||
#: window.ui:604
|
||
msgid "Search Model"
|
||
msgstr "Поиск модели"
|
||
|
||
#: window.ui:617
|
||
msgid "Search models"
|
||
msgstr "Поиск моделей"
|
||
|
||
#: window.ui:664
|
||
msgid "No Models Found"
|
||
msgstr "Модели не найдены"
|
||
|
||
#: window.ui:665
|
||
msgid "Try a different search"
|
||
msgstr "Попробуйте другой поиск"
|
||
|
||
#: window.ui:708
|
||
msgid ""
|
||
"By downloading this model you accept the license agreement available on the "
|
||
"model's website."
|
||
msgstr ""
|
||
"Загружая эту модель, вы принимаете лицензионное соглашение, доступное на веб-"
|
||
"сайте модели."
|
||
|
||
#: window.ui:745
|
||
msgid "Open with Default App"
|
||
msgstr "Открыть с помощью приложения по умолчанию"
|
||
|
||
#: window.ui:797
|
||
msgid "Previous"
|
||
msgstr "Предыдущий"
|
||
|
||
#: window.ui:840
|
||
msgid "Welcome to Alpaca"
|
||
msgstr "Добро пожаловать в Alpaca"
|
||
|
||
#: window.ui:841
|
||
msgid "Powered by Ollama"
|
||
msgstr "При поддержке Ollama"
|
||
|
||
#: window.ui:844
|
||
msgid "Ollama Website"
|
||
msgstr "Веб-сайт Ollama"
|
||
|
||
#: window.ui:860
|
||
msgid "Disclaimer"
|
||
msgstr "Отказ от ответственности"
|
||
|
||
#: window.ui:861
|
||
msgid ""
|
||
"Alpaca and its developers are not liable for any damages to devices or "
|
||
"software resulting from the execution of code generated by an AI model. "
|
||
"Please exercise caution and review the code carefully before running it."
|
||
msgstr ""
|
||
"Alpaca и ее разработчики не несут ответственности за любой ущерб, "
|
||
"причиненный устройствам или программному обеспечению в результате выполнения "
|
||
"кода, сгенерированного с помощью модели искусственного интеллекта. "
|
||
"Пожалуйста, будьте осторожны и внимательно ознакомьтесь с кодом перед его "
|
||
"запуском."
|
||
|
||
#: window.ui:872
|
||
msgid "Featured Models"
|
||
msgstr "Рекомендуемые модели"
|
||
|
||
#: window.ui:873
|
||
msgid ""
|
||
"Alpaca works locally on your device, to start chatting you'll need an AI "
|
||
"model, you can either pull models from this list or the 'Manage Models' menu "
|
||
"later."
|
||
msgstr ""
|
||
"Alpaca работает локально на вашем устройстве, чтобы начать общение в чате, "
|
||
"вам понадобится модель с искусственным интеллектом, вы можете выбрать модели "
|
||
"из этого списка или из меню \"Управление моделями\" позже."
|
||
|
||
#: window.ui:883
|
||
msgid "Built by Meta"
|
||
msgstr "Построенный с помощью Meta"
|
||
|
||
#: window.ui:901
|
||
msgid "Built by Google DeepMind"
|
||
msgstr "Создан Google DeepMind"
|
||
|
||
#: window.ui:919
|
||
msgid "Built by Microsoft"
|
||
msgstr "Создан корпорацией Майкрософт"
|
||
|
||
#: window.ui:937
|
||
msgid "Multimodal AI with image recognition"
|
||
msgstr "Мультимодальный искусственный интеллект с распознаванием изображений"
|
||
|
||
#: window.ui:966
|
||
msgid "Import Chat"
|
||
msgstr "Импорт Чата"
|
||
|
||
#: window.ui:976
|
||
msgid "Keyboard Shortcuts"
|
||
msgstr "Комбинации Клавиш"
|
||
|
||
#: window.ui:980
|
||
msgid "About Alpaca"
|
||
msgstr "О Программе"
|
||
|
||
#: window.ui:987 window.ui:1006
|
||
msgid "Rename Chat"
|
||
msgstr "Переименовать Чат"
|
||
|
||
#: window.ui:991 window.ui:1010
|
||
msgid "Export Chat"
|
||
msgstr "Экспорт Чата"
|
||
|
||
#: window.ui:995
|
||
msgid "Clear Chat"
|
||
msgstr "Очистить Чат"
|
||
|
||
#: window.ui:1002
|
||
msgid "Delete Chat"
|
||
msgstr "Удалить Чат"
|
||
|
||
#: window.ui:1018
|
||
msgid "From Existing Model"
|
||
msgstr "Из существующей модели"
|
||
|
||
#: window.ui:1022
|
||
msgid "From GGUF File (Experimental)"
|
||
msgstr "Из файла GGUF (экспериментальный)"
|
||
|
||
#: window.ui:1068
|
||
msgid "Close application"
|
||
msgstr "Закрыть приложение"
|
||
|
||
#: window.ui:1074
|
||
msgid "Import chat"
|
||
msgstr "Импорт чата"
|
||
|
||
#: window.ui:1080
|
||
msgid "Clear chat"
|
||
msgstr "Очистить чат"
|
||
|
||
#: window.ui:1092
|
||
msgid "New chat"
|
||
msgstr "Новый чат"
|
||
|
||
#: window.ui:1098
|
||
msgid "Show shortcuts window"
|
||
msgstr "Показать окно комбинаций клавиш"
|
||
|
||
#: window.ui:1105
|
||
msgid "Editor"
|
||
msgstr "Редактор"
|
||
|
||
#: window.ui:1109
|
||
msgid "Copy"
|
||
msgstr "Копировать"
|
||
|
||
#: window.ui:1115
|
||
msgid "Paste"
|
||
msgstr "Вставить"
|
||
|
||
#: window.ui:1121
|
||
msgid "Insert new line"
|
||
msgstr "Вставить новую строку"
|