Human-centered AI Assistant

Автономный AI-агент для рекомендаций

champ imagechamp image
gislason6375@gislason6375

5 сентября 2025

Позвольте узнать за какой период берутся тестовые факты?

Например в предоставленном датасет для всех пользователей конечная дата стоит 2025-06-30, я так понимаю тестовые факты берутся для последующих дат. Но можно ли быть поконкретнее?

Это может быть важно, например, для того, чтобы определить - стоит предсказывать, что пользователь купит осеннюю одежду (если период для теста задевает осень) или даже зимнюю одежду.

0

crist8332@crist8332

5 сентября 2025

Проверяются факты из будущего пользователей в горизонте 1-4 месяца

1

hackett1620@hackett1620

5 сентября 2025

Здравствуйте!

Установленные из pypi пакеты входят в ограничение "5 Гб." ? И время на установку этих пакетов вычитается их выделенных 45 минут?

0

emard3036@emard3036

8 сентября 2025

Пакеты входят в ограничение, время установки входит в 45 минут.

0

hackett1620@hackett1620

5 сентября 2025

А для чего нужна дополнительная номинация? Для нее будет отдельный лидерборд? Какие-то призы?

0

emard3036@emard3036

8 сентября 2025

Дополнительной номинации в этом соревновании нет, только основная номинация

0

toy4498@toy4498

8 сентября 2025

Добрый день! Большое спасибо, что увидели на странице данную формулировку. Это баг, который был удален. В этом году дополнительной номинации ни по одной задачи Конкурса нет. Приносим извинения, что ввели в заблуждение 🙏🏻

0

hackett1620@hackett1620

7 сентября 2025

Какие-то языковые модели, помимо GigaChat и FRIDA, разрешено использовать? Например, можно, ли поместить в submission модель Qwen?

0

emard3036@emard3036

8 сентября 2025

Разрешены только GigaChat и FRIDA

-3

hackett1620@hackett1620

8 сентября 2025

А какая версия питона будет в Docker-образе, используемом для проверки решений?
Может есть ссылка на этот Docker-образ?

0

emard3036@emard3036

9 сентября 2025

Python 3.12

0

hessel7260@hessel7260

8 сентября 2025

Можно ли дообучать FRIDA ?

1

emard3036@emard3036

9 сентября 2025

Можно, главное чтобы общее время оценки решения не превышало 45 минут с пересчетом всех эмбеддингов вашей моделью

0

schimmel9180@schimmel9180

8 сентября 2025

Внутри докера колонки также названы?
А то есть подозрение, что нет

0

emard3036@emard3036

9 сентября 2025

Колонки идентичные

0

graham8222@graham8222

8 сентября 2025

К GigaChat предполагается дать доступ? Чтобы локально тестировать.

0

emard3036@emard3036

9 сентября 2025

Инструкция по получению ключей находится во вкладке "Данные"

1

dubuque4846@dubuque4846

8 сентября 2025

учитывается ли Mean duration в оценке решения или носит информативный характер?

0

emard3036@emard3036

9 сентября 2025

учитывается только при совпадении Recall у команд

0

prohaska9375@prohaska9375

9 сентября 2025

Как узнать почему падает решение в "Human-centered AI Assistant"?

1

batz9569@batz9569

10 сентября 2025

Такой же вопрос...

0

graham8222@graham8222

10 сентября 2025

Как будто иногда падает не из-за самого решения, потому что при перезапуске того же проходит

2

jerde9556@jerde9556

9 сентября 2025

Baseline - это команда?
Если не команда, а Baseline, то почему у него несколько запусков?

0

emard3036@emard3036

11 сентября 2025

Это техническая команда чтобы запустить базовое решения

0

graham8222@graham8222

11 сентября 2025

При тестировании какая модель Гигачат используется? Базовая / Pro / Max ? (пока не вдавался в различия, но лучше знать)

1

emard3036@emard3036

11 сентября 2025

В решение передается объект для обращения в апи ГигаЧата, какую модель вы укажете в своём решении, точно такая же модель будет использоваться при проверке сабмита. Вы правы, вам доступны все три модели)

0

graham8222@graham8222

11 сентября 2025

В решение передается объект для обращения в апи ГигаЧата
Да, я и имел в виду, какой объект передается во время сабмита. Я же не могу его менять? (а модель там прописана) Или могу?

1

emard3036@emard3036

14 сентября 2025

В решение передается объект ГигаЧата, через который вы сами определяете модель, температуру и прочие параметры

1

braun7332@braun7332

11 сентября 2025

Добрый вечер! Сейчас все корректно работает? Даже что давало 0.398 теперь дает 0.0008

0

graham8222@graham8222

12 сентября 2025

О, тоже сейчас 0.0008 получил. UPD: была ошибка в решении

0

graham8222@graham8222

11 сентября 2025

"Mean duration" в таблице - это время в секундах? И чего именно? (почему среднее) Как их сопоставлять с 45 минутами?

2

emard3036@emard3036

14 сентября 2025

Это среднее время ответа на один вопрос интервью, с 45 минутами сопоставлять не нужно

0

prohaska9375@prohaska9375

12 сентября 2025

Можно ссылку на Docker образ?
А то локально все работает, а на проверке падает то на "08. Статус распаковки данных", то на "10. Статус работы симулятора".
Это бы в разы снизило количество вопросов "почему падает решение?".

2

batz9569@batz9569

12 сентября 2025

Почему в лидерборде 9 медалей если всего 3 места?

2

hackett1620@hackett1620

13 сентября 2025

Это не призовые места, это что-то типа медалей как на каггле.

1

batz9569@batz9569

13 сентября 2025

Если решение работает более 45 минут, оно будет остановлено? Если да (по крайней мере у меня так было), то по какой то причине у меня 2 день подряд завис на одном этапе "10. Статус работы симулятора", происходит бесконечная загрузка. Локально все работает. Можете ли вы скинуть ссылку на Docker образ или хотя бы добавить логи?
В чем может быть причина зависания симулятора (ошибки не выдает, просто крутит)

Базовое решение завершается ошибкой на этапе 10

UPD: добавили пометку, что решение превышает лимит. Вчера все нормально работало в контейнере, сегодня за 2.5 часа дошел до этапа 9 (хотя размер файла около 4кб) и 6 часов крутит этап 9

4

berge4325@berge4325

13 сентября 2025

Есть ли способ понять причину почему упал пайплайн после старта симулятора?

0

batz9569@batz9569

13 сентября 2025

попробуй локально запустить (пример в baseline.zip)

0

berge4325@berge4325

14 сентября 2025

Локально все корректно отрабатывает. Без ошибок

0

graham8222@graham8222

14 сентября 2025

Может импортируешь библиотеку, которой нет в requirements. Или другое исключение возникло.

0

johns5141@johns5141

14 сентября 2025

Зависла загрузка решения на этапе симулятора и уже почти сутки так висит и не дает ничего другого загрузить, что делать?

2

prohaska9375@prohaska9375

15 сентября 2025

Та же проблема, две задачи - "Human-centered AI Assistant" и "GigaMemory: global memory for LLM". Висят более суток решения.

1

blanda7513@blanda7513

15 сентября 2025

Уважаемые участники. При обращении по проблеме с запуском сабмита, указывайте, пожалуйста, имя команды и примерное время сабмита. На текущий момент проблем с зависшими сабмитами не выявлено.

0

graham8222@graham8222

16 сентября 2025

Каким образом при подсчете метрики проверяется наличие факта ("функция-индикатор, отражающий наличие в ответе ассистента h-того факта для ответа на k-тый вопрос интервью i-того пользователя")? Или эта информация специально не раскрывается?

3

emard3036@emard3036

16 сентября 2025

Техническую часть раскрыть не можем

0

batz9569@batz9569

16 сентября 2025

"Предполагается, что возможны симуляции, в которых ИИ-ассистент не успеет за ограниченное время пройти все вопросы интервью, в этом случае Recall(ik) непройденных вопросов будет приравнен к 0 (нулю)."

Тогда по какой причине решение именно останавливается без метрики ("превышен лимит времени запуска"), если превышен лимит? Это правило перестало действовать или теперь иная логика его работы?

3

graham8222@graham8222

16 сентября 2025

Хорошо бы писать о такой ситуации. А то непонятно, либо решение плохое, либо часть вопросов не успели пройти.

3

emard3036@emard3036

16 сентября 2025

Сейчас для однозначности при превышении таймаута не будет посчитана метрика

2

veum2338@veum2338

17 сентября 2025

Один и тот же архив падает на разных шагах "08. Статус распаковки данных" и "10. Статус работы симулятора". Пайплайн падает на < 45 минуте. Локально с новым окружением все работает. Можно ли посмотреть ошибку симулятора?

0

emard3036@emard3036

18 сентября 2025

Логи симулятора не предоставляются

1

veum2338@veum2338

18 сентября 2025

Обязательно ли использовать версию gigachat==0.1.39.post2 или можно использовать другую версию?

1

emard3036@emard3036

18 сентября 2025

Это исходные настройки докер образа, если вы подберете версию библиотеки посвежее и оно будет совместимо с остальными зависимостями, то пожалуйста

0

berge4325@berge4325

18 сентября 2025

Что изменилось в условиях участия?

0

emard3036@emard3036

18 сентября 2025

инструкция по получению дополнительных токенов - необходимо направлять Client ID созданного проекта и ФИО

1

wilderman1475@wilderman1475

23 сентября 2025

Здравствуйте есть ли возможность получить логи ошибки, выдает ошибку на 08. Статус распаковки данных

Code run? 10. Статус работы симулятора

Code run так же и на 10 падает и не понятно от чего

0

emard3036@emard3036

23 сентября 2025

Логи симулятора не предоставляются

0

blanda7513@blanda7513

23 сентября 2025

Уважаемые участники, при падении сабмита на шаге распаковки данных, попробуйте перезапустить пайплайн.

0

morissette1565@morissette1565

23 сентября 2025

Скажите пожалуйста а есть ли ограничение по загрузки zip файлов, а то файлы перестали загружаться?

0

morissette1565@morissette1565

23 сентября 2025

Извините вроде нормализовалось, раз десять попробовал, а сейчас вроде сработало

0

von6018@von6018

24 сентября 2025

Здравствуйте, можно предоставить больше информации о вычислении самой метрики, описание в тексте соревнования не совсем очевидно.
1) "– количества фактов, требуемых для полного ответа на k-тый вопрос интервью i-того пользователя" подразумевается что при подсчете метрик подается разное количество фактов требуемых для ответа или вообще любых фактов?
2) "– функция-индикатор, отражающий наличие в ответе ассистента h-того факта для ответа на k-тый вопрос интервью i-того пользователя" Имеется ввиду что в ответе на вопрос должна присутствовать информация о фактах на основании которых был сделан ответ? Например на вопрос "Хотели бы вы себе новую игровую приставку?" ответом может быть "Да хотел" или "Да хотел, потому что моя приставка не справляется с новыми играми"(предположим был факт "Игры последних лет тормозят на моей приставке"). Или же вопросы составлены так, что ответить без использования фактов нельзя? например "Куда бы вы посоветовали полететь в отпуск?" Ответ "Я бы посоветовал полететь в Турцию" Основано на факте " Был на отпуске в Турции, все очень понравилось"

0

emard3036@emard3036

24 сентября 2025

  1. Каждому пользователю задаются индивидуальные вопросы на основе фактов из сложивщегося будущего, не доступного участникам в обучающем датасете. Соответственно количество фактов варьируется от вопроса к вопросу. Например, может быть вопрос "Как ты проведешь выходные?", ответ на который подразумевает что правильный ответ будет "Я пойду в кино и на мастеркласс по приготовлению кухни", то есть в этом случае в ответе количество ground_truth фактов 2. И для каждого вопроса количество фактов разное, в среднем от 2 до 6.

  2. Вопросы сформулированы так, что ответы требуют конкретики о действиях пользователя. То есть для вопроса про выходные ответ "Я буду наслаждаться искусством" получит скор 0, так как в ответе отсутствует конретика и конкретные действия.

1

wilderman1475@wilderman1475

24 сентября 2025

Здравствуйте почему то зависла на 02. Статус очистки дискового пространства

Code run уже час так висит

0

emard3036@emard3036

24 сентября 2025

Попробуйте перезапустить своё решение, в случае неудачи напишите письмо в поддержку, указав название команды и примерное время загрузки решения

0

hand8710@hand8710

25 сентября 2025

Команда Кротовуха, время запуска 10.41 по мск, решение до сих пор на 10том шаге уже 3тий час

0

emard3036@emard3036

25 сентября 2025

Чтобы передать письмо в поддержку надо нажать на кнопку "Поддержка" в сайдбаре слева внизу экрана.

0

hand8710@hand8710

25 сентября 2025

Также нет возможности отправить новые сабмиты, хотя есть ещё 3 свободных

0

von6018@von6018

25 сентября 2025

Здравствуйте, не могу выбрать другое решение, при клике на кнопку удаления текущего решение происходит перегрузка страницы но решение не удаляется, кнопка удаления так же активна и повторное нажатие повторяет поведение

0

graham8222@graham8222

25 сентября 2025

В Chrome нормально работает, в других браузерах по факту глючит :((

0

beier7299@beier7299

28 сентября 2025

Как узнать причину падения решения 28.09.2025 00:09
логов нет

0

emard3036@emard3036

28 сентября 2025

Напишите письмо в поддержку, указав название команды и примерное время загрузки решения

0

wilderman1475@wilderman1475

30 сентября 2025

Зависло 18. Статус очистки дискового пространства

Code run 30.09.2025 11:43

submission-67-6-70.zip

0

emard3036@emard3036

30 сентября 2025

Пожалуйста, напишите письмо в поддержку, указав название команды и переписав свой комментарий

0

reynolds4107@reynolds4107

30 сентября 2025

а можно использовать либу rakbm25==0.2.2? Почему-то при добавлении сразу падает на 10 шаге, как будто на этапе установки requirements

1

emard3036@emard3036

30 сентября 2025

Если у вас так же записана библиотека в зависимостях, то скорее всего у вас описка, правильно будет указать `rank-bm25==0.2.2`, попробуйте локально установить дополнительные библиотеки через pip install -r requirements и загрузить своё решение снова

-1

reynolds4107@reynolds4107

1 октября 2025

Не, тут просто буква потерялась, в requirements все ок, локально все ставится и работает

0

graham8222@graham8222

1 октября 2025

У меня тоже не завелась библиотека через requirements. Интересно, у кого-то нормально получилось библиотеку добавить?

1

emard3036@emard3036

2 октября 2025

Провел эксперимент - файл `requirements.txt`со следующим содержимым:

python-dotenv==1.1.1

polars==1.31.0

sentence-transformers==4.1.0

gigachat==0.1.39.post2

numpy==2.3.1

scikit-learn==1.7.0

rank-bm25==0.2.2

Решение загружается, метрика считается.

Проверяйте правильность написания файла с зависимостями, корректность названия библиотек, корректность импортов. Пробуйте перезагружать решение

-2

hermann5422@hermann5422

1 октября 2025

Добрый день, подскажите, пожалуйста, причину падения решения (команда OPIA)

b6d59fa28f660479b41e5adf58c870f8155cf661.zip

01.10.2025 01:01

В поддержку написали в начале рабочего дня - ответа нет

0

graham8222@graham8222

1 октября 2025

Еще раз вопрос относительно метрики. Очень странно ведёт себя. В моем понимании наличие факта в строке не должно изменяться при добавлении другой строки. То есть, по логике, recall при добавлении (append) другой строки не должен падать. Но это не так! Например, можно проверить, просто продублировав ответ, score сильно падает. Я вижу 2 варианта: 1) Неправильная реализация подсчета метрики; 2) Хитрая проверка наличия факта (зависит от длины строки, например). Если верен пункт 2, прошу явно подтвердить (если можно, с обоснованием).

0

emard3036@emard3036

2 октября 2025

Хитрая проверка присутствует, ответ должен быть осмысленным, соответствовать вопросу и не содержать, например, всех вариантов событий чтобы взломать метрику.

2

hackett1620@hackett1620

2 октября 2025

То есть, получается метрика соревнования не Recall? И представленная на вкладке "Обзор" формула не соответствует действительности?

1

beier7299@beier7299

2 октября 2025

Подскажите почему упал сабмит, засылал бейзлайн
команда beier7299 сабмит по времени 01.10.2025 19:06

0

emard3036@emard3036

2 октября 2025

Перепишите, пожалуйста, в поддержку это сообщние

0

hermann5422@hermann5422

3 октября 2025

Подскажите причину падения сабмита (команда OPIA):

03.10.2025 00:34

e4299c582700e45e8439f2744f6a03317f447007.zip

Поддержка отправляет к вам:

При возникновении новых вопросов обращайтесь, пожалуйста, к держателю задачи через комментарии: https://dsworks.ru/champ/aij25-recsys/comments.

1

emard3036@emard3036

6 октября 2025

По причинам падения может ответить только поддержка, по вопросам идейного характера вы можете найти ответы тут

0

reynolds4107@reynolds4107

4 октября 2025

Попробовал добавть просто в requirements.txt rank-bm25==0.2.2 прямо в baseline решение.
Решение падает сразу на 10 шаге.

Состав:
python-dotenv==1.1.1

polars==1.31.0

sentence-transformers==4.1.0

gigachat==0.1.39.post2

numpy==2.3.1

scikit-learn==1.7.0

rank-bm25==0.2.2

Просьба прояснить все же ситуацию. Я так понимаю уже не один такой.

4

emard3036@emard3036

6 октября 2025

Попробуйте перезапустить. Точно такие же зависимости запускаются и пайплайн доходит до конца

-6

sauer8831@sauer8831

5 октября 2025

Можно ли использовать ML модели по типу catboost, lightGBM, какие-то другие модели с huggingface?. Можно ли подключать другие зависимости по типу langchain, langgraph

?

2

emard3036@emard3036

6 октября 2025

Можно

0

sauer8831@sauer8831

5 октября 2025

Также подскажите интервью проводится в какой момент времени с какой даты по какую, условно если интервью было позднее чем задан факт, то от этого факта фактически нет смысла, и в какой момент происходить само интервью последняя дата 2025-06-30, нужно предсказывать от этой даты на ближайшие 1-4 месяца пользователя или от какой даты ?

1

emard3036@emard3036

6 октября 2025

по времени интервью проводится после последнего факта в датасете и вопросы касаются будущего пользователя.

0

reynolds4107@reynolds4107

5 октября 2025

Завис сабмишн submission11_31 на 10 шаге.

0

emard3036@emard3036

6 октября 2025

Пожалуйста, напиши письмо в поддержку с указанием названия команды и примерным временем запуска пайплайна

0

sauer8831@sauer8831

6 октября 2025

В какой момент времени происходит интервью ?

1

emard3036@emard3036

6 октября 2025

После последнего доступного факта в датасете, вопросы касаются будущего пользователя

0

sauer8831@sauer8831

6 октября 2025

У тебя где-то через час крашнет его скорее всего ошибка в requirements.txt какая-т

0

sauer8831@sauer8831

6 октября 2025

Я когда добавляю зависимости по типу langchain сразу падает на 10 тесте

2

emard3036@emard3036

6 октября 2025

Локально у вас отрабатывает сабмит? Наличие новой зависимости не приводит к падению решения, скорее всего имеет место быть ошиб

-3

sauer8831@sauer8831

7 октября 2025

Еще подскажите пожалуйста, допустим данные за 2024 год и его актуальность 3 месяца, значит ли это что на интервью это уже неактуально будет и не стоит это упоминать ?

0

emard3036@emard3036

7 октября 2025

Не значит, даже старые факты влияют на мотивацию клиента

0

sauer8831@sauer8831

7 октября 2025

И еще подскажите как проходит само интервью:
Для каждого пользователя заново запускается solution.py с 50 вопросами ?
Или для всех сразу запускается solution.py ?
Или же запускается весь submission для каждого user_id ?
Или же один раз запускается submission ?

1

emard3036@emard3036

7 октября 2025

Один раз импортируется класс и объект ассистента, дальше этот объект отвечает на все вопросы всех пользователей

0

swaniawski4061@swaniawski4061

7 октября 2025

Подскажите в чем причина падения сабмита от 07.10.2025 17:24. Я добавил библиотеку hnswlib==0.7.0 в зависимости и пайплайн начал падать. Локально все работает. В тех поде сказали написать сюда

0

emard3036@emard3036

8 октября 2025

hnswlib как и faiss довольно вредные библиотеки (сложно их установить). Возможно не получается установить hnswlib только через pip install, не хватает в образе линуксовых утилит для билда.

В целом hnswlib позволит вам ускорить поиск, но не сделать его точнее. Вместо 100 мс вы будете подбирать релевантных кандидатов за 50 мс, например. Если при перезапуске пайплайна не устанавливается библиотека, может и не нужно её использовать, это не приведет к улучшению метрики соревнования.

0

sauer8831@sauer8831

8 октября 2025

Добрый вечер, duration отвечает за актуально факта вперед на 3 месяца или назад или как ?
Если написано что у какого-то факта duration 3 , что это значит ?

0

emard3036@emard3036

11 октября 2025

duration обозначает время актуальности - воздействия на клиента от момента совершения факта

0

reynolds4107@reynolds4107

8 октября 2025

Добрый день. Сабмиты бесконечно зависают на 10 шаге и не падают по тайм-ауту. Команда prochii_team.

Через поддержку, кроме ручного стопа сабмита, как я понимаю, больше ничего сделать не могут, и на вопрос почему сабмит не падает по тайм-ауту просто молчат.

5

stoltenberg1820@stoltenberg1820

8 октября 2025

Добрый день, подскажите, пожалуйста, как получить персональный ключ?
при регистрации в https://giga.chat/ токены не появляются в лк

0

emard3036@emard3036

11 октября 2025

Во вкладке "данные" соревнования скачайте инструкцию "Получение ключей GigaChat" и отправьте письмо для получения дополнительных токенов

0

wilderman1475@wilderman1475

10 октября 2025

крутиться на запуске симулятора уже пол часа можно как-то сбросить 10.10.2025 13:35

Iliveback2.zip команда Владимир Калюта

1

wilderman1475@wilderman1475

10 октября 2025

опять та же проблема 10.10.2025 15:12

klromvell.zip

0

emard3036@emard3036

11 октября 2025

По вопросам, касающимся непосредственно проверки решения симулятором, пишите письмо в поддержку с указанием названия команды и примерного времени запуска

0

graham8222@graham8222

10 октября 2025

За эту неделю так и не выдали обещанные токены. :( Что делать, куда жаловаться?

0

emard3036@emard3036

11 октября 2025

Согласно инструкции пишите письмо на указанную почту, указав ClientId своего проекта

0

graham8222@graham8222

13 октября 2025

Да писал уже несколько раз :(

0

gaylord6180@gaylord6180

14 октября 2025

python-dotenv==1.1.1
polars==1.31.0
sentence-transformers==4.1.0
gigachat==0.1.39.post2
numpy==2.3.1
scikit-learn==1.7.0
rank-bm25==0.2.2

как только добавил bm25 начал падать на 10 тесте, локально все работает, подскажите пж в чем может быть причина?

1

emard3036@emard3036

14 октября 2025

Попробуйте перезапустить пайплайн, ошибка не воспроизводится - при добавлении библиотеки пайплайн отрабатывает.

Частая ошибка - неправильный импорт библиотеки в коде, проверьте на всякий случай

-2

reynolds4107@reynolds4107

15 октября 2025

Пройденый этап, кроме ответа: все работает, это вы что то не так делаете, ничего внятного не получите.

Я пробовал просто добавить в baseline эту либу, сразу падает на 10 шаге.

Но вместо того чтобы разобраться, тут будут писать, что сами виноваты.

5

wilderman1475@wilderman1475

14 октября 2025

Здравствуйте как такое может быть одно и тоже решение дает разную метрику ?

0

emard3036@emard3036

14 октября 2025

Использование LLM через API не позволяет получить детерминированную генерацию, поэтому метрика меняется от запуска к запуску.

0

mertz3493@mertz3493

15 октября 2025

Добрый день!

Команда Denisiuskley
Сабмит от 14.10 12:18 до сих пор идет расчет

0

emard3036@emard3036

15 октября 2025

Пожалуйста, перешлите это сообщение в поддержку

0

schmitt3154@schmitt3154

15 октября 2025

Почему gigachat стал отвечать так на любой вопрос? На все старые решения и baseline получаю одинаковые ответы.
"К сожалению, иногда генеративные языковые модели могут создавать некорректные ответы, основанные на открытых источниках. Во избежание неправильного толкования, ответы на вопросы, связанные с чувствительными темами, временно ограничены. Благодарим за понимание."

0

emard3036@emard3036

15 октября 2025

Проверьте что передаёте в промпт - модели гигачата не менялись, ваша ошибка не воспроизводит

0

hackett1620@hackett1620

15 октября 2025

Можно ли оптимизировать (кхм) промпт, чтобы модель-судья зачла твой ответ за правильный.

Например, в третьей задаче явно прописано: "Не стоит пытаться в своих ответах “обмануть” судью. Попытки prompt injection, хитрых формулировок и т.д. отслеживаются, и при попадании подобного сабмита в топ лидерборда он будет исключён."

В этой же задаче такого условия нет. Правильно понимаю, что разрешено всё, что не запрещено?

0

emard3036@emard3036

15 октября 2025

Не верно, в этой задаче решения с читингом тоже будут исключены

0

graham8222@graham8222

16 октября 2025

Не менялись ли 14 октября версии Gigachat или LLM-as-judge? У меня некоторые решения сильно упали, на 0.03 с этой даты. (проверял несколько раз, и раньше разброс по метрике был меньше)

2

hackett1620@hackett1620

17 октября 2025

Да, тоже вроде бы упали результаты на 0.05 начиная с 14 октября.

2

braun7332@braun7332

17 октября 2025

у меня то же самое решение просело на 0.07

2

ankunding8649@ankunding8649

18 октября 2025

Поддерживаю, уменьшилось на 0.05

1

smith6645@smith6645

20 октября 2025

У меня вообще перестали работать решения которые в пятницу еще нормально проходили. Все стало ломаться на 10 шаге

0

emard3036@emard3036

21 октября 2025

Модели не менялись

0

braun7332@braun7332

21 октября 2025

что значит модели не менялись?, то же самое загруженное решение просело в метрике на 0.07, значит что то другое поменялось

3

graham8222@graham8222

22 октября 2025

Я почти уверен, что поменялась именно модель-судья. Я проверил на решениях, которые вообще не использовали LLM, и они тоже сильно просели. Возможно судья стал качественнее. Все в равных условиях, конечно. Но такая замена посередине соревнования, не очень приятна 🙃

2

braun7332@braun7332

23 октября 2025

мягко сказать не середина, а за 12 дней до конца. Так еще не предупредив, сейчас получается все решения переделывать приходится, еще не факт что текущий топ по лидерборду актуален

1

von4818@von4818

17 октября 2025

Всем пользователям задаются одинаковые вопросы? или каждому свой список вопросов?

0

emard3036@emard3036

21 октября 2025

Каждому пользователю задаются индивидуальные вопросы

-1

schowalter2129@schowalter2129

19 октября 2025

Mean duration - 18.5
Это как - без LLM ответ) ?

3

graham8222@graham8222

20 октября 2025

Где такой можно наблюдать?

0

schowalter2129@schowalter2129

20 октября 2025

Сейчас немного больше - верхние строки лидерборда посмотрите.

0

graham8222@graham8222

21 октября 2025

А, увидел. прикол. =) Я набирал ~0.37 без LLM. При этом duration=17 был.

0

graham8222@graham8222

22 октября 2025

Мощно: Etsubye - score 0.50799 за 2 попытки и duration=10.00786

0

hermann5422@hermann5422

20 октября 2025

Добрый день, всё таки, кто-то разобрался как ставить библиотеки в этом контесте?
Через requirements.txt не заводится (несмотря на рекоммендации организаторов перезапустить пайп и т.д.). Пробовал ставить из кода - тоже не работает, хотя в другом контесте всё норм

1

deckow6485@deckow6485

22 октября 2025

Здравствуйте. Надо ли заливать файлы env с ключами от gigachat?

0

emard3036@emard3036

22 октября 2025

Не надо, тестирующая система передаёт объект ГигаЧата со своими ключами

0

deckow6485@deckow6485

22 октября 2025

И почему система не дает загрузить submission.zip с решением? Просто кнопка готово не проживается

0

emard3036@emard3036

23 октября 2025

Попробуйте снова, всё работает

0

deckow6485@deckow6485

26 октября 2025

Можео ли использовать другую модель для векторизации?

0

emard3036@emard3036

27 октября 2025

Можно, но есть риск что так ваше решение не сможет уложиться в лимиты по времени

0

deckow6485@deckow6485

27 октября 2025

А можно узнать по какой причине падает решение?

0

deckow6485@deckow6485

27 октября 2025

И почему не работает библиотека Langgraph? Проверил версию 1.0.1 и 0.6.11. Локально все работает. Именно на запуске падает, но не сразу. И не у меня одного

0

stoltenberg1820@stoltenberg1820

30 октября 2025

Подскажите, для получения токена в итоге надо использовать Authorization Key или Client Secret: Client ID?
оба варианта не проходят

0

toy4498@toy4498

31 октября 2025

Уважаемые участники!

Для вашего удобства мы продлеваем время выбора трёх итоговых сабмитов для оценки на приватных данных до 12:00 (по МСК) 31.10.25

Для всех отправленных решений к этому времени будут рассчитаны оценки на публичной турнирной таблице.

Если Участники Конкурса не выберут три решения самостоятельно, то, по Правилам Конкурса, выбор будет сделан автоматически — на проверку уйдут три лучшие решения по скору на публичной турнирной таблице. На приватную турнирную таблицу (итоговый лидерборд) попадает одно из трех решений Задачи с лучшим значением метрики.

С уважением,

Команда AIJ Contest

0

morissette1565@morissette1565

13 ноября 2025

Поздравляю победителей! Вы большие молодцы! У меня 10 место тоже доволен собой!

0

morissette1565@morissette1565

13 ноября 2025

А подскажите, как можно сменить morissette1565 на нормальное имя-фамилию, не смог разобраться через профиль.

0

morissette1565@morissette1565

13 ноября 2025

Обратил внимание, что третье место занял тот, у кого 4 результат, значит, 3 не прошел, «дисквалифицирован», а возможно посмотреть точные списки, просто понять, какое место, судя по времени, у меня 6-7. Если не затруднит выложите, я просто в подобном направлении в первые и для меня было бы круто если я был выше текущего 10.

0

deckow6485@deckow6485

13 ноября 2025

Уважаемые победители. Не могли бы вы вкратце рассказать, в чем секрет такого отрыва от других участников?

2

morissette1565@morissette1565

13 ноября 2025

Присоединяюсь! Хотелось бы хотя бы немного узнать как можно получить 0.61921 за 32.4582

0

schowalter2129@schowalter2129

23 ноября 2025

Присоединяюсь к пожеланию! Хотелось бы узнать, как получить, не нарушив условия конкурса (ответ с помощью LLM), такой отличный результат 0.56 за 0.38

0

haley6830@haley6830

5 декабря 2025

Hello, world!!!

0