Как стать автором
Обновить
790.74

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

На GitHub Представлена бесплатная база (Learn Agentic AI using Dapr Agentic Cloud Ascent (DACA) Design Pattern: From Start to Scale) по ИИ‑агентам и их правильному созданию с нуля:

  • Подробное введение в общее строение и теорию разработки ИИ‑агентов.

  • Разбор всех популярных нейросетей от ChatGPT до Gemini.

  • Важнейшие протоколы ИИ.

  • Паттерны проектирования ИИ‑агентов.

  • Множество проектов для закрепления знаний — каждый авторы разобрали пошагово. Готовых ИИ‑агентов сможете сразу применять в работе.

  • Разборы процессов в популярных нейростартапах.

Теги:
0
Комментарии0

Интересно применение ML и AI в борьбе за безопасность и доверие пользователей? Тогда Trust&Safety AI Meetup точно для тебя 👀

Когда? 22 мая, 18:00
Где? офлайн в Москве + онлайн-трансляция 

В программе будут 2 технических доклада, интересная дискуссия, спикеры из Wildberries&Russ, Avito, AI Masters. А еще розыгрыш классного мерча среди активных участников и нетворкинг с полезными знакомствами.

Регистрация закроется 21 мая — выбирай формат участия и успей отправить заявку. До встречи на Trust&Safety AI Meetup!

Не пропустите подробности о митапе: @wb_space 🌟

Теги:
0
Комментарии0

22 мая Андрей Квапил (a.k.a. kvaps) проведет вебинар на YouTube-канале CNCF и расскажет о том, как быстро и просто деплоить виртуальные машины и Kubernetes-кластеры и пробрасывать в них GPU с помощью Open Source-платформы Cozystack.

Зарегистрироваться можно по ссылке: https://tinyurl.com/yf9jcfst. Просто кликните по кнопке «Login to RSVP», чтобы получить приглашение в календаре.

Теги:
0
Комментарии0

Привет! 27 сентября 2025 года мы вновь соберёмся на Practical ML Conf — ежегодной конференции Яндекса о практическом применении ML‑технологий. Открываем приём заявок для тех, кто хочет выступить с докладом.

Основные темы конференции в этом году: CV, RecSys, MLOps, NLP, Speech и Data Science. Мы ждём глубокие технические доклады о прикладных решениях, которые уже приносят пользу в реальных проектах.

Как проходит работа со спикерами Practical ML Conf 2025:

  • при подготовке доклада вы получите поддержку от экспертов программного комитета;

  • перед конференцией пройдут прогоны с профессиональным тренером по публичным выступлениям;

  • мы поможем оформить вашу презентацию, чтобы донести идею максимально чётко и красиво;

  • вы сможете посетить конференцию вместе с +1 без прохождения отбора слушателей;

  • ваш доклад привлечёт внимание сообщества и экспертов: можно будет получить обратную связь, идеи для развития решения и проекта;

  • мы поддерживаем спикеров не только на конференции — ваши доклады будут промоутироваться через каналы Яндекса до и после мероприятия.

Приём заявок открыт до 9 июня 2025. Решение о включении доклада в программу примет программный комитет на основе четырех критериев: полезность, новизна, сложность и практичность.

Предложить свой доклад можно на сайте конференции. Там же можно зарегистрироваться слушателем, узнать подробности и посмотреть записи прошлых выступлений.

Теги:
+9
Комментарии0

Ozon запустил бесплатный инструмент OzonGenerator для автоматической генерации описаний товаров — он встроен в личный кабинет продавца и доступен в приложении Ozon Seller. Использовать функцию можно до 50 раз в месяц, при этом сторонние сервисы больше не нужны.

Теги:
0
Комментарии3

Облачная инфраструктура Рег.ру для AI и ML

Рассказываем, какие решения в Облаке Рег.ру помогут развернуть полноценную инфраструктуру для работы с AI и ML. Сервисы подходят для обучения моделей, хранения больших датасетов в облачных хранилищах и внедрения решений в продакшн. 

Как работает архитектура для AI и ML:

  1. Развертывание вычислительной среды. Выбираете, где будет выполняться обучение: Bare Metal GPU или Cloud GPU.

  2. Загрузка данных. Собираете датасет в удобных инструментах: S3, DBaaS или непосредственно на виртуальной машине/сервере. 

  3. Обучение модели. Запускаете создание или дообучение модели с сохранением результатов в удобном сервисе, например, в S3 или DBaaS.

  4. Использование результатов. Модель можно тиражировать и применять для различных сервисов в продакшене.

С помощью AI и ML-решений можно упростить автоматизацию, ускорить аналитику и повысить производительность проектов.

Теги:
+2
Комментарии1

Text smell

Народ обленился. Раньше было понятие «code smell» как признак плохого кода – дублирование кода, длинные методы, сложные условия, отсутствие комментариев, бестолковые комментарии, слишком много комментариев.

Сейчас можно говорить о «text smell» – генерация бестолкового, бессвязного текста с помощью LLM. Если в тексте есть и «буллет поинтов»

«Буллет поинты» и 😊 😃 😍 🤔 😭 😡 😎 🙄 🤷‍♂️ 🙃 🙈 🙌 🧠 💪 в тексте, это верный признак того, что портянка была сгенерированна с помощью AI. Бесполезная трата машинных циклов и кредитов. Если не хочется писать самому, то лучше ничего писать.

Пока LLM научился только генерировать шаблонный код, заблюренные картинки и видосы в стиле Ghibli. Это уже принесло много пользы, но все еще очень далеко от человеческого интеллекта.

Cline — это AI-ассистент, который превращает твой VS Code в умную среду для разработки. Он не просто подсказывает код, а реально помогает его писать: исправляет ошибки, запускает команды, тестирует изменения и даже сам предлагает решения на основе твоего проекта.

Работает просто: ты ставишь расширение, даешь задачу — а Cline анализирует код, предлагает правки и спрашивает подтверждение перед каждым действием. Все изменения можно проверить в diff-режиме или откатить. Особенно удобно для веба — он умеет запускать локальный сервер, открывать сайт в браузере и ловить баги прямо в процессе.

Под капотом — интеграция с терминалом, поддержка разных AI-моделей и гибкие настройки. Получается как второй разработчик в твоей команде, только всегда под рукой и без лишних вопросов.

OpenRouter — это как единый шлюз ко всем популярным AI-моделям. Вместо того чтобы прыгать между разными API (OpenAI, Anthropic, Google и т. д.), можно подключиться один раз и получать доступ сразу ко всем — включая свежие и нишевые модели.

Работает просто: выбираешь модель в настройках, указываешь API-ключ от OpenRouter — и всё. Система сама считает токены, показывает стоимость запросов и даже подсказывает, какая модель лучше подойдет под твой бюджет или задачу.

Особенно удобно для разработчиков: если твой проект использует AI (как тот же Cline), OpenRouter избавляет от головной боли с роутингом запросов и обновлениями API. Плюс можно тестировать разные модели без переподключения — просто сменил название в конфиге и поехал дальше.

OpenRouter принимает крипту.

Теги:
+2
Комментарии1

Гендиректор ИИ-подразделения Google DeepMind Демис Хассабис призвал студентов готовиться к бесконечным переменам и сказал, чему нужно учиться. На вопрос, куда студентам следует направить силы и время в эпоху ИИ. Ответ Хассабиса — «учиться учиться».

«Я думаю, что на истинное понимание: используйте своё время, пока вы студенты, чтобы лучше понять себя и то, как вы лучше учитесь», — отметил Хассабис. Он пояснил, что залог успеха сегодня в адаптивности к новым знаниям — в том, чтобы развить навык быстрого освоения и усвоения нового материала, быть гибким и эффективным в обучении.

Хассабис считает, что сегодняшним студентам придётся жить в мире, где единственной предсказуемой вещью является его непредсказуемость — всё постоянно меняется из‑за стремительного развития технологий. Но он назвал конкретные направления, которые заслуживают внимания.

«Особенно ИИ, а также виртуальная и дополненная реальность, квантовые вычисления. Все эти сферы выглядят многообещающе в перспективе ближайших 5–10 лет», — сказал Хассабис. Он добавил, что каждая перемена несёт в себе «огромные» возможности.

«Я думаю, мы на пороге периода, похожего на 1990-е, когда мы выпускались, и тогда развивался интернет, мобильные телефоны, гейминг. Думаю, мы вступаем в очередной такой период. Это очень захватывающе, но нужно быть очень шустрым и схватывать появляющиеся технологии», — продолжил Хассабис.

Также Хассабис посоветовал студентам помнить о базе. Что‑то новое будет появляться всегда, поэтому лучше не отвлекаться на вещи, которые «модны сегодня, но выйдут из моды завтра».

«Помню, моими любимыми были темы вроде теории вычислений и теории информации, изучение таких вещей, как машины Тьюринга. Это осталось со мной на протяжении всей карьеры. Мне нравятся математические основы и многое из классических, фундаментальных работ», — поделился Хассабис. При том он подчеркнул, что важно не забывать о тех вещах, к которым у вас лежит душа. К выпуску студенты должны быть способны совместить глубокое понимание своих интересов с теми знаниями и навыками, которые они получили.

В свободное время Хассабис посоветовал студентам экспериментировать в любимых направлениях. В его случае это ИИ, и здесь постоянно появляются новые инструменты, в том числе с открытым кодом, поэтому он посоветовал студентам к моменту выпуска хорошо владеть самыми передовыми.

Теги:
+3
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: прозмоьла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Источник:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облако и Web archive, чтобы точно не потерять :). Хотя сам, честно говоря, до сегодняшнего дня но разу не пользовался данной моделью, теперь есть повод поэкспериментировать.

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
+1
Комментарии0

Запустили Evolution ML Inference — сервис для развертывания ML- и DL-моделей в облаке 🤖

❓ Что за инструмент? С помощью Evolution ML Inference можно запускать и развертывать ML-модели из библиотеки Hugging Face на облачных мощностях с GPU, в том числе в пользовательских Docker-образах. А для более эффективного инференса также можно использовать среды исполнения vLLM, TGI, Ollama, Diffusers и Transformers.

🖥 Особенности и преимущества. Благодаря технологии Shared GPU ML-модели могут совместно использовать ресурсы графического ускорителя — это экономит ресурсы облака и повышает производительность. Масштабирование происходит динамически — если число запросов превышено, дополнительные мощности выделяются автоматически. Или наоборот, один GPU можно использовать для инференса сразу нескольких моделей. Оплата за использование — по модели pay-as-you-go.

👨‍💻 Кому будет полезно. Сервис найдет применение во всех сферах, где актуально машинное обучение. Evolution ML Inference можно использовать при создании ML- и DL-моделей для бизнеса, медицинских и образовательных учреждений, ретейла, кибербезопасности, производства и других областей.

✍️ Где, как и для чего использовать. Сервис подойдет для инференса LLM и TGI, диффузионных моделей и моделей-трансформеров, а также аудит-логирования. Какие задачи помогают решать модели:

  • распознавание объектов и речи;

  • прогнозирование поведения клиентов;

  • составление логистических маршрутов;

  • генерация текстов;

  • перевод, суммаризация и другие операции с текстом.

А больше об Evolution ML Inference можно узнать из доклада конференции GoCloud 2025 «Эволюция запуска ML-моделей» 😉.

Теги:
0
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: произошла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Оригинальный файл:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облакo [ Upd: администрация Telebox, как выяснилось, имеет доступ ко всем файлам, даже беспарольным архивам, и уже дважды удалила файл] и Web archive [здесь файл жив и здоров], чтобы у каждого была возможность покопаться в недрах этого конфига. Честно говоря, до сегодняшнего дня ни разу не пользовался данной моделью от Anthropic, теперь есть повод поэкспериментировать :).

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
+8
Комментарии0

Узнаем содержимое любого GitHub-репозитория за один клик с помощью универсального бесплатного ИИ-помощника Git-Friend.

Решение:

  • создаёт подробные и структурированные README-файлы для ваших проектов — это поможет сэкономить часы работы и сделать ваши труды более узнаваемыми.

  • делает саммари и гайды по любым репозиториям и досконально разжевывает их кодинговую базу

  • отвечает на вопросы, если вы застряли при анализе проекта или установке нового фреймворка.

  • скоро сервис сможет генерить диаграммы для еще более подробного анализа кода.

Теги:
+2
Комментарии0

AI-агенты в облаке: как они работают, зачем нужны — и как создать собственного

📅 13 мая | 18:00 (МСК) | Онлайн

На встрече поговорим о том, как устроены современные AI-агенты на базе LLM, какие архитектуры и инфраструктуры используются для их работы, и продемонстрируем создание агента в режиме live coding.

👨‍💻 Спикер — Михаил Дремин
Технический лидер Data Science-направления в Clоud.ru

🔍 В программе:
— Основы LLM-агентов и взаимодействие с внешним миром через инструменты (tools)
— Архитектурные подходы: Prompt chaining, ReAct, Evaluator-optimizer, ambient agents и другие
— Реальные кейсы использования
— Практическая часть: разработка собственного агента на Python (с использованием LangChain) и развертывание в облаке

💼 А также: представители компании расскажут о стажировке для студентов и молодых специалистов: какие направления доступны, как попасть в команду.

📌 Участие бесплатное

📎 Регистрация: https://mnlp.cc/mini?domain=digitalmipt&id=7

Теги:
0
Комментарии0

Ближайшие события

Тикток-блогер its_ken04, известная как Кен, опубликовала запись «собеседования», которая стала вирусной. В ролике ИИ-рекрутер 14 раз подряд повторяет фразу «vertical bar pilates», иногда запинаясь или заикаясь, пока Кен с невозмутимым видом смотрит на экран.

Девушка подавала заявку на работу в фитнес-центре. Кен рассказала, что компания заранее предупредила ее об использовании ИИ в процессе отбора, и платформа называлась Apriora. «Похоже, мне нужно было заслужить право говорить с человеком, ха-ха», — написала девушка в комментариях к видео.

Стартап Apriora обещает помочь компаниям «нанимать на 87% быстрее» и «проводить собеседования на 93% дешевле», поскольку может одновременно интервьюировать нескольких кандидатов. «Соискатели во многих случаях предпочитают проходить собеседование с ИИ, поскольку знание того, что интервьюер — это ИИ, помогает снизить тревогу, позволяя кандидатам проявить себя наилучшим образом», — заявили в компании.

Опыт Кен с Apriora был отрицательным. «Мне показалось это действительно жутким, я была в шоке», — сказала она. «Я не находила это смешным, пока не выложила тикток и комментарии не подняли мне настроение. Я была очень удивлена, я ничего не сделала, чтобы вызвать сбой, так что это было неожиданно. Я больше никогда не буду проходить это снова. Если другая компания захочет, чтобы я общалась с ИИ, я просто откажусь», — заявила блогер.

Теги:
+11
Комментарии2

Представлен ресурс (Context7 MCP - Up-to-date Code Docs For Any Prompt) из 9000 API с документацией для автоматического подключения к любым нейросетям. Поддерживается: Cursor, Windsurf, VS Code, Docker, Claude.

Теги:
0
Комментарии0

Могучий русский язык и предиктивный ввод в умной клавиатуре

Русский — это вызов даже для самых продвинутых языковых моделей. Одна из ключевых причин — его морфологическая сложность. В отличие от английского языка, где у слов относительно немного форм, русский язык отличается большим количеством словоформ, которые образуются с помощью приставок, суффиксов и окончаний. 

Это означает, что одно лексическое понятие, например глагол «читать», может породить десятки различных форм: «читаю», «читаем», «читаешь», «прочитал», «прочитала» и так далее. Для модели предиктивного ввода это серьезная проблема: чтобы корректно предсказывать или завершать такие слова, ей нужно либо обладать глубоким пониманием морфологии, либо иметь достаточно большой словарь, который покрывает все возможные варианты словосочетаний.

Мы увеличили размер словаря для русского языка до 40 тысяч слов и использовали модель Char CNN + RNN. Так удалось добиться прироста метрики KSS (количество сэкономленных нажатий) на 60%. 

Читайте в статье ИИ-инженера Вадима Воеводкина из YADRO, как его команда улучшила предиктивный ввод на планшетах KVADRA_T и с какими сложностями столкнулась. 

Теги:
+2
Комментарии0

Магистратура МФТИ и Альфа-Банка

Вместе с МФТИ Альфа-Банк открывает набор в магистратуру «Машинный интеллект в финансах». Обучим управлять циклом создания модели, анализировать и моделировать данные с помощью алгоритмов Python, а также решать прикладные задачи Machine Learning и Deep Learning.

Почему стоит попробовать:

  • Бесплатное обучение — все расходы покрывает Альфа-Банк.

  • Ежемесячная стипендия и оплачиваемая стажировка с первого дня.

  • Возможность попасть в IT-команду Альфа-Банка.

Что нужно:

  • Иметь диплом бакалавра или магистра.

  • Подать заявку и решить задачу по машинному обучению (кредитного скоринга или прогнозирования баланса клиентов).

  • Пройти вступительные испытания в МФТИ (подробнее о них на сайте МФТИ).

Подать заявку и решить задачу можно до 19 мая — подробности на сайте программы, а также в записи со Дня открытых дверей.

Теги:
+2
Комментарии0

ИИ-проект Cursor раздаёт студентам бесплатную подписку Cursor Pro на 12 месяцев. Подписка даёт доступ к лучшим в мире LLM-моделям, при этом почти безлимитный. Заявки с России тоже принимаются.

Теги:
+1
Комментарии4
Пройдите квиз и узнайте, какое направление Data Science выбрать
Пройдите квиз и узнайте, какое направление Data Science выбрать

🎓 Пройдите квиз и узнайте, какое направление Data Science вам подходит.

В онлайн-магистратуре «Науки о данных» доступны три профильных направления.
Чтобы выбрать подходящий трек, пройдите мини-квиз — он учитывает ваши интересы и бэкграунд.

🔹 ML Engineer
Создает и внедряет модели для обработки данных, изображений, видео и текстов — от прогнозирования оттока до диагностики по снимкам и разработки чат-ботов поддержки клиентов.

🔹 Data Analyst
Проектирует модели для анализа данных: сбор, очистка, визуализация, интерпретация данных. Например, создает дашборд для анализа продаж.

🔹 Data Engineer
Строит инфраструктуру для работы с большими данными: создает каналы и пайплайны для сбора, обработки и хранения данных.

💡 Профильные треки — это возможность получить дополнительные навыки и углубиться в одну из ключевых сфер работы с данными.

👉 Пройти кви: https://t.me/mipt_ds_spec_bot

Теги:
0
Комментарии0

Отец канадского стартапера Маянка Джайна порезался кухонным ножом. К счастью, Маянк не запостил фотку с серьёзностью раны, однако можно понять, что достаточно сильно — сын повёл мужчину к врачу. Джайн с удивлением обнаружил, что врач сделал запрос в ChatGPT.

@mayankja1n

Однако не всё так возмутительно. Если судить по фотографии, терапевт просто забил в GPT-4o (видимо, не хочет расходовать лимит запросов к o3) полный список жалоб пацента: «Порез левого указательного пальца кухонным ножом, направление на хирургическую обработку раны и наложение швов». В ответ чат-бот записал ему историю заболевания (HPI, History of Present Illness) с какими-то шаблонными данными (нет аллергических реакций, не принимает никакие препараты, медицинской истории заболевания нет), результаты осмотра, оценку и план лечения.

Насколько можно судить, врач сгенерировал себе текст, чтобы не стучать самому по клавиатуре, заполняя стандартные формы. Однако заметно, что у него платный (тариф ChatGPT Plus) личный аккаунт, а не корпоративный. Лишь в последнем случае данные от пользователя для последующего обучения моделей использоваться не будут. Как известно, данные даже с платных персональных аккаунтов ChatGPT будут использованы для улучшения продуктов OpenAI.

С другой стороны, если судить по фото, то персональных данных пациента в бота врач не вводил.

Сам Маянк не сильно возмущён. Он тоже считает, что это просто экономия времени на бумажной волоките.

Вообще, любопытно подглядеть, что может спрашивать у ChatGPT врач-терапевт. Собственно чат про порез на пальце озаглавлен «План оценки похожего на грипп заболевания» — то ли этот чат продолжен от другого запроса, то ли врач редактировал запрос в этом же чате. После тоже идёт что-то медицинское: «Диагностика грибка ногтей на ногах», «Калькулятор углеводов в арахисовых M&M’s», «Боль в спине и одышка», «Дифференциальная диагностика кожного поражения», «Обзор анамнеза и текущих препаратов (PMH и Rx)».

Далее о потребностях в информации можно только гадать: «Приказ Аврааму о жертвоприношении», «Дифференциальная диагностика хронической сыпи на ногах». По-арабски там записано «كيفية قول علامة بالعربية» («Как сказать „знак“ по‑арабски»). Ниже опять продолжаются запросы, контекст которых ясен: «Запрос на краткое содержание разговора», «Ответ „Спасибо“», «Головные боли при наклоне».

Теги:
+5
Комментарии7
1
23 ...

Работа

Data Scientist
48 вакансий
OSZAR »