GigaMemory: global memory for LLM
Долгосрочная память для языковой модели


Долгосрочная память для языковой модели
месяц назад
История сообщений в рамках одной сессии помещается в контекст модели?
0
месяц назад
Длина максимальной сессии влезает в контекст модели.
В разделе данные указано:
В среднем каждый диалог состоит из нескольких десятков сессий разной длины и содержит примерно 300 тысяч символов (или около 100 тысяч токенов).
В карточке модели указано:
Поддерживает контекст в 131 тысячу токенов.
0
10 дней назад
что должен содержать ZIP архив при загрузке- папку submit или два файла в корне model_inference.py и init.py
0
месяц назад
А для инференса GigaChat Lite доступна только bf16 версия или есть вариант взять квантованную модель?
0
месяц назад
В базовый образ помещена только одна модель GigaChat Lite (bf16). Вы можете дополнительно загружать любые модели, библиотеки и веса, которые удовлетворяют суммарному ограничению по объёму решения в 5 Гб.
0
месяц назад
А 8 часов отсчитываются с какого момента? Как загрузил код или после того как очистилось пространство, скопировался датасет и начался работать код?
0
месяц назад
я думаю с этого момента: "начался работать код" и даже если это не так, первые два этапа достаточно быстро проходят
0
месяц назад
От момента начала работы 16го шага пайплайна.
0
месяц назад
И какие требования для машины для локального запуска решений и сколько примерно по времени базовое решение прогоняется на средней машине?
0
месяц назад
Ответ держателя задачи:
"Модель bf16 весит 40гб и должна влезать на 1 GPU. Плюс надо учитывать размер Вашего батча. Прогон можно делать и на CPU, главное чтобы модель влезла в оперативную память.
Базовое решение нельзя прогнать на локальной машине, т.к. мы не выкладываем данные, на которых прогоняемся для получения скора на лидерборде. Но на тех 4 диалогах, что мы выложили, общий прогон на карте должен занимать менее 5 минут, не считая времени на загрузку модели на карту. Это очень примерная оценка, т.к. очень зависит от используемых ресурсов."
0
месяц назад
А почему золотых медалей 2. Серебряных две и бронозвы три? Будет по несколько первы, вторых и третьих мест? И 900 делится на двоих? Какая-то путаница
1
месяц назад
Добрый день. Количество медалей каждого цвета в задаче величина переменная и является функцией от общего количества участников. При этом, денежные призы присуждаются не за медали, а за конкретное место в турнирной таблице (первое, второе, третье).
1
месяц назад
Оценка соответствия правильному ответу (Accuracy) - как ее понимать?
1.0 максимальная оценка?
0
месяц назад
Да, максимальный скор на лидборде может быть 1.0.
Каждая пара ответов поступает на вход LLM, которая, используя развёрнутые инструкции, оценивает, насколько ответ сабмита похож на верный ответ на заданный вопрос, и выдаёт бинарный вердикт.
0
месяц назад
Здравствуйте! Можно ли остановить пайплайн, зафиксировав "неудачу"? Он длится очень долго, а новое решение готово до его окончания.
0
месяц назад
Здравствуйте. Нет.
0
месяц назад
2 или 3 пайплайна одновременно на все попытки нельзя запустить - правильно же?
0
месяц назад
Добрый день. Именно так. Следующий запуск - по завершению предыдущего.
0
месяц назад
Я новичок и хочу научиться. Можете ли вы подсказать мне верное направление как выглдит пайплайн? Использовать RAG ?
-1
месяц назад
Мне кажется или в пайплайне последовательность поменяли и логи прикрутили?
0
месяц назад
Добрый день. Впечатление ошибочное. Последовательность шагов не менялась, логи на шаге ограниченного инференса были доступны с момента запуска задачи.
1
месяц назад
Добрый день!
Можно ли как-то смотреть логи на шаге ограниченного инференса (при успешном пайплайне)? Можно ли как-то скачивать уже загруженные в систему решения ?
0
месяц назад
Как будет производиться оценка ответа, если не все факты упомянуты в ответе по сравнению с эталонным, а только их часть? Все равно 0 будет за этот ответ?
2
месяц назад
Практически все правильные ответы являются короткими предложениями с минимальным количеством фактов. Если ответ является перечислением фактов, то неполное перечисление является неверным ответом.
Допустим более краткий или длинный ответы, если они передают ту же суть.
1
месяц назад
Ну что пацаны, кто первый десятку преодолеет! Хватит уже внизу топтаться! Пора взлетать наверх! =)
2
месяц назад
Участников стало меньше. Было 38 стало 37. trevor91038472 куда-то пропал. Тут можно удалиться из таблицы или дискфалифицирован? Если второе то за что - не подскажите?
0
месяц назад
Как-то все зависло на стадии очистки дискового пространства(часа 3 уже), проверьте работает ли вообще пайплайн сборки.
0
месяц назад
Зависло на этой же стадии
0
месяц назад
Да у меня тоже с полуночи.. суже часов 11.. видимо все там переставляют у себя.. или память закончилась у них) надеюсь быстро починят, а не до понедельника)
0
месяц назад
Аналогично( решение уже болтается так часов 13
0
месяц назад
Такое чувство, что только в понедельник к вечеру починят..
0
месяц назад
А за участниками закреплены какие то определенные ноды? Не будет такого что я могу раз в день запускать потому что у меня фаза подготовки диска несколько часов, а кто то будет три раза в день? Полдня висело
Вечером отвисло (я успел сделать запуск который упал с ошибкой SSH и не связан по всей видимости с моим кодом) и теперь опять висит
P.S. итого ни одного тестового запуска за день так как стенд не работает
0
месяц назад
Уважаемые участники, на настоящий момент, ранее наблюдаемый аппаратный сбой был устранен. Задача полностью функциональна. При запуске новых сабмитов, могут временно наблюдаться более длинные очереди из-за обработки ранее отправленных решений.
2
месяц назад
Уважаемые организаторы! Не может ли быть ошибки в расчете метрики или в работе сабмита? Какой то уж слишком подозрительный accuracy у такого количества людей/попыток.. Ощущение что вообще от рандомного сабмита считается, а не моего, либо кавычки не парсит и т.п. )
Сейчас acccuracy лидерборды имеет нормальное распределение и хотя явно я отправляю в ответах не рандом должно быть выше 0.5, но не 0.08 точно
Нашел ошибку у себя которая в теории могла ухудшать
0
месяц назад
блин, тоже задавался этим вопросом) но пока не смог найти чего-то, что так значимо могло бы ухудшать качество
0
месяц назад
паблик маленький, либо сложный, либо и то и то
0
месяц назад
Соревнование вообще чинить собираетесь? Сабмиты вообще без контекста беседы получают 0.085 и длятся 6 часов, сабмиты вообще без инференса получают 0.085 и длятся 6 часов, на почту уже несколько дней назад написал и тишина...
4
месяц назад
Ну корреляция качества с ответами есть точно - есть когда исправил ошибки стало сильно выше - пока ощущение что датасет правильный и оценка правильная
0
месяц назад
3 одинаковых сабмита посылал (которые в ответ выдают " "), получил три разных результата 0.084, 0.0857, 0.0848
1
месяц назад
Плюсую, я отправил всегда возвращать "Нет информации" - 0.084.
Получается у вас они по такой же логике набирают 0,085 - пустой ответ судья воспринимает как Нет информации. А крутятся 6 часов - это прогонка всех 1167 и отправка в них запроса без контекста.
Из этого неутешительный вывод, что даже первое место это всего 11 правильных ответов из 1069 оставшихся, если учесть что 0,084 это 98 ответов;
Получается никто еще не сделал хорошего решения - даже у первого места, без учета 98 безответных вопросов - всего 1% правильных ответов; Это похоже пока на случайное угадывание и совпадение или удачу при нормальном распределении.
В общем либо мы все тупые. Либо у них судья очень тупой и правильные ответы засчитывает только когда один в один ответил.
0
месяц назад
Корреляция качества с ответами скорее всего из-за того, что в судью попадает больше правильных ответов; Судья сравнивает больше верных ответов и вероятность успеха при сравнении увеличивается.
Допустим судья кривой и только на 10% сравнений верных ответов говорит, что они одинаковые. Тоесть вы реально правильно ответили на 100 вопросов из 1000. А судья скажет вам что у вас всего 10 правильных ответов. Вот вы и получите +0.5% вместо +5% к рейтингу.
Я думаю, что до окончания соревнования так все и останется. Потому что организаторы не в праве использовать улучшенного судью с первого места из соседнего конкурса. А вот во время подведения итогов будет работать улучшенный судья - чемпион соседнего конкурса и тогда разница в оценках решений будет более заметна.
Ну либо мы все тупые и никто даже на 2% имеющих ответ вопросов - не смог ответить)
0
месяц назад
3 одинаковых сабмита посылал (которые в ответ выдают " "), получил три разных результата 0.084, 0.0857, 0.0848
---
По факту это +/- 1 правильный ответ
Ну тоесть в диалогах есть 2 вопроса ответ на которые судья может приравнять к пустому.
Типа
Сколько у меня детей?
"У меня нет детей" или " " - может засчитать равносильными
Даже если брать из прошлого комментария кэф в 10% то таких вопросов будет не 2 а 20 - То это все равно реально
0
месяц назад
Еще месяц есть улучшать
0
месяц назад
Вы все не туда смотрите. Один инференс контекста в ~100к токенов занимает около 10-20 секунд, *1167 примеров - 3-6 часов.
В бейзлайне час занимает проверка, ~полчаса все шаги, ~4.5 часа инференс - ~14 секунд на пример, все сходится.
Отправлял сабмит, где инференс модели вообще не вызывался - он отработал все те же 6 часов. Это невозможно, потому что он минимум должен был быть часа на три быстрее. Вывод? Не знаю, какой код там крутится, но явно не тот, который заливается участниками. Возможно банально берется бейзлайн вместо залитого решения, и вся турнирная таблица сейчас - это пара сотен прокруток бейзлайна.
4
25 дней назад
Выглядит, что починили, теперь при пустом сабмите 0.0009
2
25 дней назад
Уважаемые участники AIJ Contest,
В пайплайне обработки решения задачи “GigaMemory: global memory for LLM” была выявлена и, как Вы уже заметили, устранена техническая накладка. Если вы считаете, что какие-либо из ранее отправленных вами сабмитов выдали заниженное значение метрики, просим Вас отправить их повторно в тестовую систему. В силу природы исправления технической накладки, успешное прохождение сабмитов, которые рассчитывались успешно до фикса, после фикса не гарантируется.
Приносим извинения за доставленные неудобства!
1
месяц назад
Добрый день, все данные на русском ?
1
месяц назад
Здравствуйте, все данные на русском языке.
0
месяц назад
Добрый день, хочу загрузить новое решение, но старый архив не удаляется - не получается заменить его на новый.
0
месяц назад
Через Safari не работает, работает через Chrome. Проблема решена.
1
месяц назад
Прошу организаторов дать пояснение, точно ли все в инференсе на сервер происходит корректно? Очень подозрительно что почти за месяц с начала соревнования мы далеко не продвинулись от Baseline.
1
месяц назад
сорев начался неделю с чем то назад
и да - он непростой )
0
25 дней назад
Добрый день. На полном сете падает любое решение без логов (именно на полном сете, на ограниченном все работает): и бейслайна, и прошлого (работающего вчера архива), и даже решение (выдающее "У меня нет информации"). Проверьте, пожалуйста свой докер. (команда catboost, сабмиты в 17:03, 16:24, 15:48)
0
25 дней назад
у меня тоже такое..
0
25 дней назад
Здравствуйте!
Мы не скидываем автоматически участникам логи на полном прогоне во избежании читинга (участники могли бы пытаться получить доступ к сету через exception). На всех Ваших сабмитах Вы получаете одну и ту же ошибку на 88ом примере в сете:
TypeError: sequence item 77: expected str instance, float found
0
25 дней назад
Код стал падать с ошибкой в логе:
```
[1,0]<stdout>:/home/jovyan/65ea5a81-0ebe-4c8c-bef9-ab39323f37da/src
[1,0]<stdout>:ImportError: Please, provide the ModelWithMemory implementation that can be imported from the submit
, and check the availability of the imported modules and libraries.
[1,0]<stdout>:cannot import name 'SubmitModelWithMemory' from 'submit' (unknown location)
[1,0]<stderr>:Error is written to error.json
```
Хотя импорты остались теже, с прошлых успешных сабмитов я в импортах ничего не менял. Для проверки загрузил и запустил прошлый **успешный сабмит** - он также отвалился с той же ошибкой.
команда effertz4247, сабмиты `25.09.2025 17:28`, `25.09.2025 18:25`.
0
25 дней назад
попробуйте, чтобы в вашем решении в корне архива лежали__init__.py
model_inference.py
0
25 дней назад
Предыдущие zip-архивы имели у меня структуру src/submit/<файлы>
Правильно я понимаю, что теперь нужно чтобы архив имел структуру <файлы> без вложенных папок?
0
25 дней назад
это в описании задачи есть
раньше работало, видимо, из-за какого-то косяка в самой системе
1
25 дней назад
когда в корне архива лежат__init__.py
model_inference.py
работает на этапе 10 (ограниченная выборка) а на 16 (полный сет) падает не понятно почему (без логов даже)
0
25 дней назад
Спасибо за починку соревнования.
Пожалуйста, увеличьте количество попыток в день с 3 до 4, как компенсацию за то время, пока соревнование работало некорректно.
1
25 дней назад
у меня почему-то новые самбиты не получается загрузить в систему
2
25 дней назад
Здравствуйте!
Попробуйте исправить структуру архива как пишут здесь, в комментариях.
submission.zip -- __init__.py
-- model_inference.py
0
25 дней назад
Какая в итоге структура в архиве должна быть?
0
25 дней назад
submission.zip
-- __init__.py
-- model_inference.py
1
25 дней назад
Уважаемые участники AIJ Contest,
В пайплайне обработки решения задачи “GigaMemory: global memory for LLM” была выявлена и, как Вы уже заметили, устранена техническая накладка. Если вы считаете, что какие-либо из ранее отправленных вами сабмитов выдали заниженное значение метрики, просим Вас отправить их повторно в тестовую систему. В силу природы исправления технической накладки, успешное прохождение сабмитов, которые рассчитывались успешно до фикса, после фикса не гарантируется.
Приносим извинения за доставленные неудобства!
5
25 дней назад
пробовал разные варианты все равно cannot import name 'SubmitModelWithMemory' from 'submit submission.zip
-- __init__.py
-- model_inference.py
0
25 дней назад
пожалуйста, пришлите название команды и время отправки сабмита.
0
25 дней назад
Сейчас другая проблема падает на 16. Статус работы кода инференса (полный сет)
Code run sabmit1.zip Владимир Калюта 26.09.25 12:52
0
25 дней назад
Сабмит 12:52 имеет ошибку
Exception: 'float' object has no attribute 'lower' in 46 row
я так понимаю на 88 примере в нашем сете
0
25 дней назад
Можете, пжл, посмотреть почему падают решения на полном сете?
0
25 дней назад
пожалуйста, пришлите название команды и время отправки сабмита.
0
25 дней назад
Логин gibson4114
26.09.2025 11:36
26.09.2025 09:35
0
25 дней назад
Я вижу в турнирной таблице команду "gibson41141727". Это Ваша ведь?
0
25 дней назад
да, видимо полное название такое
0
25 дней назад
Сабмиты 09:35 и 11:36 имеют ошибку
Exception: Conversation roles must alternate user/assistant/user/assistant/... in 423 row
0
25 дней назад
что-то не могу понять, как новый сабмит загрузить. везде нажал. и просто пытался перетащить, и старый удалить - ничего не выходит.
0
25 дней назад
Пожалуйста, используйте хром.
0
25 дней назад
Падают сабмиты, без логов
0
25 дней назад
На каком шаге? Скиньте, пожалуйста, название команды и время сабмита
0
25 дней назад
Шаг: Статус работы кода инфереса (полный сет)
Команда: Туманов Александр
Время: 26.09.2025 13:10
0
25 дней назад
В самом начале прогона на приватном сете (10ый пример)
Exception: CUDA out of memory. Tried to allocate 20.00 MiB. GPU 0 has a total capacity of 79.25 GiB of which 1.19 MiB is free. Process 380 has 0 bytes memory in use. Including non-PyTorch memory, this process has 0 bytes memory in use. Of the allocated memory 22.35 GiB is allocated by PyTorch, and 72.00 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation.
0
25 дней назад
А вы не можете все ошибки также в логи отдавать, как раньше?
0
24 дня назад
Вы имеете возможность автоматически получить логи с ошибками после прогона на малом сете в 4 диалога.
Мы не скидываем автоматически участникам логи на полном прогоне во избежании читинга (участники могли бы пытаться получить доступ к сету через exception).
0
25 дней назад
Пробовал разные варианты все равно cannot import name 'SubmitModelWithMemory' from 'submit submission.zip
-- __init__.py
-- model_inference.py - оба файла есть в решении - мой ник:
cassin6527
0
25 дней назад
полный ник: cassin65271317
0
25 дней назад
Скиньте, пожалуйста, время сабмита
0
25 дней назад
Ваш последний сабмит должен падать на малом инференсе, то есть Вы должны видеть ошибку в логах.
Exception: name 'os' is not defined in 60 row
0
25 дней назад
Со вчерашнего дня начали падать сабмиты. Причем падают даже те, которые заведомо рабочие. Что-то сломалось или изменилось в условиях?
0
25 дней назад
Уважаемые участники AIJ Contest,
В пайплайне обработки решения задачи “GigaMemory: global memory for LLM” была выявлена и, как Вы уже заметили, устранена техническая накладка. Если вы считаете, что какие-либо из ранее отправленных вами сабмитов выдали заниженное значение метрики, просим Вас отправить их повторно в тестовую систему. В силу природы исправления технической накладки, успешное прохождение сабмитов, которые рассчитывались успешно до фикса, после фикса не гарантируется.
Приносим извинения за доставленные неудобства!
1
25 дней назад
Прикладываю файл сабмита с базовым решением (после загрузки надо поменять расширение на zip, если скачалось с расширением .zip.bin)
0
25 дней назад
добрый день! можете, пожалуйста, посмотреть сабмит в 26.09.2025 11:51 на предмет не осталось ли еще технических ошибок.
Eсть ощущение, что это решение должно работать лучше baseline (по крайней мере на тестовых вопросах выдает 4\4), но сабмит выдал околонулевую метрику.
Я не жду и не прошу инсайтов по решению, просто хочу понять все ОК или не ОК в плане вашей оценки. Не думаю, что можно настолько плохо отвечать.
До исправления вышеупомянутой вами технической ошибки скор был близок к baseline, но никак не ~0.
0
25 дней назад
Если решение проходит, то я ничего интересного из логов Вам не смогу скинуть(
До исправления ошибки сабмиты оценивались неверно как в сторону завышения, так и в сторону занижения оценки.
0
25 дней назад
да логи не нужны, нечестно в них подсматривать наверное.
просто если вы можете проверить корректность работы оценщика сами, то было бы полезно мне кажется.
Если теперь правда все ОК с оценкой решений, для меня просто так и останется загадкой почему настолько плохо отвечает мое первое тестовое решение, выдавая верные ответы на предоставленных публичных 4 примерах, и не справляясь почти ни с 1 вопросом в ваших данных.
0
25 дней назад
Добрый день, подскажите, пожалуйста, почему сабмит упал?
Команда – adugeen
Время – 26.09.2025 14:39
0
24 дня назад
ValueError: text input must be of type str
(single example), list[str]
(batch or single pretokenized example) or list[list[str]]
(batch of pretokenized examples).
Вы получаете ошибку на 88ом примере полного сета. Посмотрите по поиску в комментариях, я уже кидал различные exception, которые получают другие участники на этом примере. Думаю для Вас это будет подсказкой.
1
25 дней назад
не работает после обновления, не может импортировать модель
исходная папка и название zip архива должны совпадать?
1
24 дня назад
Прикладываю файл сабмита с базовым решением (после загрузки надо поменять расширение на zip, если скачалось с расширением .zip.bin)
1
24 дня назад
Проверьте пож-та причину фейла сабмита:
команда: effertz4247
сабмит: 26.09.2025 18:45 submit21.zip
падает на 16-м этапе после 3 часов работы
0
22 дня назад
TypeError: 'float' object is not subscriptable
На 88 примере в нашем сете
0
24 дня назад
"Пример посылаемого решения (baseline) можно найти в репозитории в директории src/submit. Для создания тестового submit необходимо запаковать содержимое этой директории в ZIP-архив и отправить в проверяющую систему." и "репозиторий соревнования" - а где эта ссылка с репозиторием соревнования? Я в упор не вижу.
0
24 дня назад
https://gitverse.ru/ai-forever/memory_aij2025/content/main
0
23 дня назад
Доброй ночи мой сабмит на стадии распаковки данных для основного сета завис уже 9 часов, можно ли его как то отменить?
команда Deluxe
27.09.2025 13:41
0
22 дня назад
Ваш сабмит упал без вмешательства команд поддержки.
0
22 дня назад
Можете сказать почему упал сабмит на 16 этапе? 28.09.2025 22:10 команда catboost
0
22 дня назад
ValueError: The decoder prompt (length 56719) is longer than the maximum model length of 35000. Make sure that max_model_len
is no smaller than the number of text tokens.
На 35ом примере нашего сета
0
22 дня назад
Здравствуйте, подскажите почему упал сабмит?
Команда adugeen
28.09.2025 19:04
0
22 дня назад
ValueError: The decoder prompt (length 8232) is longer than the maximum model length of 8192. Make sure that max_model_len
is no smaller than the number of text tokens.
На 35ом примере нашего сета
1
22 дня назад
По поводу падающих сабмитов:
message.content не обязано быть строкой, хотя в классе это и подразумевается. Используйте str(message.content).
Скорее всего при загрузке большого тестового сета из файлакакое-нибудь сообщение от пользователя вида "10.12" парсится как float и так и передается.
4
21 день назад
Здравствуйте, сабмит 29.09.2025 17:10
на 10 этапе не хватает времени, можно посмотреть логи?
1
21 день назад
Здравствуйте, сабмит 29.09.2025 21:12 падает на 16 шаге, а ошибку и логи не показывает, скажите пожалуйста, какая там ошибка? или скиньте логи если можно
1
21 день назад
Здравствуйте! Пожалуйста, укажите название своей команды.
0
21 день назад
Здравствуйте!
При запуске сабмита на 10-м шаге падает с причиной:
```
HTTP Error 429 thrown while requesting HEAD https://huggingface.co/ai-sage/GigaChat-20B-A3B-base/resolve/main/configuration_deepseek.py
...
Exception: Ошибка загрузки модели /app/models/GigaChat-20B-A3B-instruct-v1.5-bf16: We couldn't connect to 'https://huggingface.co' to load the files, and couldn't find them in the cached files.
Check your internet connection or see how to run the library in offline mode at 'https://huggingface.co/docs/transformers/installation#offline-mode'. in 102 row
```
Выглядит так, что ошибка не в моем коде, а из-за отсутствия модели в контейнере. Не могли бы вы проверить?
Сабмит 29.09.2025 23:34, команда effertz4247.
Также прошу посмотреть и сообщить причину падения сабмита 29.09.2025 23:49 на 16-м этапе
. Опять нет логов, просто падение.
0
21 день назад
Здравствуйте!
Вы видите логи только после малого прогона на 4 примерах. Мы не скидываем автоматически участникам логи на полном прогоне во избежании читинга (участники могли бы пытаться получить доступ к сету через exception).
29.09.2025 23:49 - Exception: Не удалось выполнить гибридный поиск: Ошибка FTS поиска: database disk image is malformed in 275 row
0
21 день назад
Добрый день, подскажите, пожалуйста, ошибку посылки команды The Team, 09:15 МСК 30.09.2025.
0
21 день назад
Здравствуйте!
Упало я так понимаю на первом же примере прогона.
Token indices sequence length is longer than the specified maximum sequence length for this model (769 > 512). Running this sequence through the model will result in indexing errors
0
21 день назад
Exception: CUDA out of memory. Tried to allocate 1.39 GiB. GPU 0 has a total capacity of 79.25 GiB of which 147.19 MiB is free. Including non-PyTorch memory, this process has 0 bytes memory in use. Process 529 has 0 bytes memory in use. Of the allocated memory 31.31 GiB is allocated by PyTorch, and 20.84 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables) in 562 row
0
21 день назад
Подскажите, пожалуйста, почему у пал сабмит?
30.09.2025 13:08
Команда – adugeen
0
21 день назад
На 499ом примере.
<stdout>:TypeError: len() of unsized object
<stderr>:[rank0]:[W930 14:47:17.480387127 ProcessGroupNCCL.cpp:1476] Warning: WARNING: destroy_process_group() was not called before program exit, which can leak resources. For more info, please see https://pytorch.org/docs/stable/distributed.html#shutdown (function operator())
0
21 день назад
Подскажите, пожалуйста, почему упал сабмит?
30.09.2025 14:02
hoeger6716
0
21 день назад
Извините, у Вас логируется слишком много записей и кажется что система достигает предела, и я не могу посмотреть конца файла.
Пожалуйста, сократите логирование в логи.
1
20 дней назад
Подскажите пожалуйста почему упал сабмит на 16 этапе 30.09.2025 21:20 команда catboost
0
20 дней назад
Exception: CUDA out of memory. Tried to allocate 15.78 GiB. GPU 0 has a total capacity of 79.25 GiB of which 2.47 GiB is free. Including non-PyTorch memory, this process has 0 bytes memory in use. Process 626 has 0 bytes memory in use. Of the allocated memory 3.81 GiB is allocated by PyTorch, and 294.32 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables) in 422 row
0
20 дней назад
Подскажите, пожалуйста, почему упал сабмит? (Убрал логгирование)
30.09.2025 16:15
hoeger6716
0
20 дней назад
К сожалению, логов всё ещё много(
Логи переполнены вот такими записями
"2025-09-30T13:38:00Z [1,0]<stdout>:[Memory BATCH-WRITE][1210]: Added fact: "
1
20 дней назад
Добрый день! Упал сабмит на 16 шаге 30.09.2025 16:28 daugherty7562, подскажите почему? Команда Elchin_ka
0
20 дней назад
TypeError: object of type 'float' has no len()
0
19 дней назад
Блин пропустил сегдоня вебинар по разбору задачи! Запись есть не подскажите?
2
19 дней назад
Присоединяюсь к вопросу о записи вебинара (может тезисы или конспект есть?)
0
19 дней назад
Тезисы, которые я вспомнил, могут быть неточности:
Приватный датасет примерно схожего размера как публичный(по которому сейчас лидерборд строится), поэтому если решение проходит прям впритык по времени, нужно быть осторожным
Бейзлайн отрабатывает за 6,5 часов примерно
В октябре ВОЗМОЖНО будет статья на хабре по дообучению этого Гигачата и вроде там даже будет инструкция как положить свои слои(веса) в свое решение и потом их использовать.
Настоятельно рекомендуется использовать предложенную модель гигачата( есть участники в текущем топе таблицы, которые вообще не использовали гигачат)
1
19 дней назад
Здравствуйте! Вебинар в данный момент находится на монтаже и будет выложен в ближайшие дни.
1
16 дней назад
Если вы посмотрите правила, использование GigaChat обязательно, это к комментарию что мол "крайне желательно", не желательно, а необходимо, но внизу пишут, что обертки в тч доп модели рядом с гигой можно использовать, но гига должна использоваться тоже. За не использование гиги в пайпе решения дисквалификация может быть.
0
19 дней назад
Подскажите пожалуйста почему упал сабмит на 16 этапе
01.10.2025 17:37 команда catboost
0
19 дней назад
Exception: CUDA out of memory. Tried to allocate 2.54 GiB. GPU 0 has a total capacity of 79.25 GiB of which 1.28 GiB is free. Including non-PyTorch memory, this process has 0 bytes memory in use. Process 639 has 0 bytes memory in use. Of the allocated memory 4.42 GiB is allocated by PyTorch, and 888.14 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables) in 271 row
0
19 дней назад
WARNING: destroy_process_group() was not called before program exit, which can leak resources. For more info, please see https://pytorch.org/docs/stable/distributed.html#shutdown (function operator())
0
19 дней назад
Ошибка на 41ом примере
0
19 дней назад
Подскажите, пожалуйста, почему упал сабмит?
01.10.2025 18:28
hoeger6716
0
19 дней назад
Exception: CUDA out of memory. Tried to allocate 1.91 GiB. GPU 0 has a total capacity of 79.25 GiB of which 1.17 GiB is free. Process 352 has 0 bytes memory in use. Including non-PyTorch memory, this process has 0 bytes memory in use. Of the allocated memory 12.73 GiB is allocated by PyTorch, and 149.33 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables) in 47 row
0
19 дней назад
Ошибка на 122ом примере
0
19 дней назад
Подскажите, насколько критично это требование: "Ответить на вопрос должна модель GigaChat Lite, инструкцию для которой участник формирует самостоятельно. Ожидается, что в инструкции будет содержаться объект памяти, вопрос и все необходимые инструкции по ответу."
Можно ли использовать другие модели, вместо GigaChat?
0
19 дней назад
Вы должны использовать GigaChat в своём решении. Вы можете использовать другие модели в качестве вспомогательных.
0
19 дней назад
Добрый день. Подскажите, пожалуйста, где можно запись вебинара посмотреть?
2
19 дней назад
Здравствуйте! Вебинар в данный момент находится на монтаже и будет выложен в ближайшие дни.
1
19 дней назад
подскажите, пожалуйста, ошибку в сабмите?
02.10.2025 11:20
damore6971
0
19 дней назад
TypeError: object of type 'float' has no len()
Ошибка на 88ом примере в сете, рекомендую посмотреть предыдущие комментарии, эта ошибка уже встречалась у многих участников.
0
18 дней назад
Можно, пожалуйста, тоже подсказать ошибку в сабмите.
Команда The Team
02.10.2025 12:05
0
18 дней назад
20ый пример:
ValueError: The decoder prompt (length 1453) is longer than the maximum model length of 1408. Make sure that max_model_len
is no smaller than the number of text tokens.
1
18 дней назад
что означает кнопка "Отправить решение" на странице "Решение задачи" и надпись "Можно выбрать решения и отправить в чемпионат (0/3)"?
и без этого действия автоматом лучшее решение публикуется в турнирной таблице.
Или под завершение конкурса нужно будет обязательно выбрать свои ТОП-3 решения и надеяться на них на приватном прогоне? если забуду автоматом пойдет ТОП-3?
0
18 дней назад
В данном случае речь идет про ручной выбор решений для приватного лидерборда. Если вы не сделаете выбор, он будет сделан автоматически - три лучших ваших решения по паблик скору.
0
18 дней назад
Подскажите пожалуйста причину падения сабмита 02.10.2025 22:57 команда catboost
0
18 дней назад
ValueError: The decoder prompt (length 6277) is longer than the maximum model length of 4000. Make sure that max_model_len
is no smaller than the number of text tokens.
0
18 дней назад
А можете на один вопрос ответить, который я не понимаю (хотел его на вебинаре задать - но не попал)
Как так выходит, что бейс лайн крутится 6.5 часов из 7
А нам надо еще использовать вызов моделей для извлечения фактов. Тоесть даже если добавить на 1 диалог не один а два вызова Гигачата - то будет тайаут;
И почему бейслайн так долго, 1167 вопросов. Из вашего примера Гигачат дает ответ примерно за секунду - должно быть 20 минут; Я ничего не понимаю(
1
15 дней назад
От владельцев задачи:
Приведённое базовое решение - запуск модели на полном контексте. Во многих статьях по памяти запуск модели на полном контексте считается одним из самых медленных подходов, который однако может давать высокие результаты. Высокие результаты достигались на контекстах куда меньшей длины, чем в диалогах нашего соревнования, поэтому на нашем сете такой подход даёт достаточно низкое качество.
Для обработки одного вопроса по диалогу базовое решение занимает около 20 секунд. Решения, которые работают не на полном контексте, работают значительно быстрее и Вы можете позволить себе большое количество вызовов GigaChat.
Не очень понимаю о каком примере Вы говорите. Пример во вкладке "Данные" действительно маленький, мы предполагали что участники будут запускать тестовые примеры отсюда: https://gitverse.ru/ai-forever/memory_aij2025/content/main/data/format_example.jsonl
1
16 дней назад
Можно, пожалуйста, тоже подсказать ошибку в сабмите.
Команда The Team
04.10.2025 17:19
0
15 дней назад
AssertionError: Sampled token IDs exceed the max model length. Total number of tokens: 2049 > max_model_len: 2048
0
16 дней назад
Подскажите, пожалуйста, в чем ошибка на 16 шаге
05.10.2025 10:05
MAPMEJIADKA
0
15 дней назад
На 57ом примере
Exception: CUDA out of memory. Tried to allocate 3.86 GiB. GPU 0 has a total capacity of 79.25 GiB of which 2.73 GiB is free. Including non-PyTorch memory, this process has 0 bytes memory in use. Process 394 has 0 bytes memory in use. Of the allocated memory 11.30 GiB is allocated by PyTorch, and 3.97 GiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables) in 198 row
0
15 дней назад
Подскажите ошибку, какая-то проблема с платформой кажется, те же сабмиты падают
05.10.2025 19:14
Туманов Александр
0
15 дней назад
На 47ом примере
Exception: division by zero in 71 row
0
15 дней назад
Подскажите, пожалуйста, ошибку в сабмите
Команда The Team
06.10.2025 04:50
0
15 дней назад
На 75ом примере
TypeError: TextEncodeInput must be Union[TextInputSequence, Tuple[InputSequence, InputSequence]]
0
14 дней назад
падает сабмит gigamemory_submission_009 на 16 шаге.
Можете подсказать пожалуйста из-за чего?) Команда: prochii
0
14 дней назад
Здравствуйте! Название Вашей команды - prochii_team
Пожалуйста, указывайте время сабмита при запросе.
Ошибка на 75ом примере
Exception: 'float' object has no attribute 'strip' in 804 row
0
14 дней назад
Что означает ошибка?
Startup time limit exceeded
0
14 дней назад
Это означат что запуск вашего решения не уместился во временной лимит.
1
14 дней назад
Подскажите, пожалуйста, ошибку в сабмите
Команда The Team
07.10.2025 10:07
0
14 дней назад
На 96ом примере
Exception: CUDA out of memory. Tried to allocate 1.87 GiB. GPU 0 has a total capacity of 79.25 GiB of which 1.34 GiB is free. Including non-PyTorch memory, this process has 0 bytes memory in use. Process 658 has 0 bytes memory in use. Of the allocated memory 5.32 GiB is allocated by PyTorch, and 3.68 GiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables) in 69 row
0
14 дней назад
Подскажите, в чем ошибка?
07.10.2025 02:55
Команда rosenbaum34510436
0
14 дней назад
На 35ом примере
AssertionError: Sampled token IDs exceed the max model length. Total number of tokens: 8001 > max_model_len: 8000
Exception: EngineCore encountered an issue.
0
13 дней назад
Подскажите, в чем ошибка?
07.10.2025 19:51
и 07.10.2025 00:04
команда: robel302512321
0
13 дней назад
07.10.2025 19:51
На 75ом примере: TypeError: expected string or bytes-like object
07.10.2025 00:04
На 75ом примере: ValueError: text input must be of type str
(single example), list[str]
(batch or single pretokenized example) or list[list[str]]
(batch of pretokenized examples).
0
13 дней назад
Подскажите пожалуйста, в чем ошибка?
07.10.2025 22:26
команда: kemmer7671
0
13 дней назад
Здравствуйте! Пожалуйста, шлите название Вашей команды как на лидерборде - kemmer76713209.
Ваше решение упало на этапе расчёта метрики, то есть Вы дали слишком длинный ответ на вопрос.
ValueError: The decoder prompt (length 6157) is longer than the maximum model length of 4000. Make sure that max_model_len
is no smaller than the number of text tokens.
2
13 дней назад
Подскажите причину падения пайплайна
06.10.2025 12:16
команда : rosenbaum17832621
0
13 дней назад
На 88ом примере
TypeError: TextInputSequence must be str
0
13 дней назад
Здравствуйте, завис на 20 минут 1 этап очистка пространства команда catboost 08.10.2025 14:42
1
13 дней назад
у меня та же проблема
08.10.2025 14:43
команда: kemmer7671
1
13 дней назад
Добрый день,
Зависло уже целый час на этапе 01. Очистка дискового пространства
Команда OPIA
2
13 дней назад
cassin6527 - Дата запуска решения: 08.10.2025 14:33 - уже более 40 минут идет очистка дискового пространства, дальше решение не продвигается. Ни разу такого не было за все предыдущие попытки.
1
13 дней назад
Уважаемые участники, в настоящий момент проблема с зависанием пайплайнов на 1 шаге устранена. Все ранее запущенные пайплайны работают в штатном режиме.
1
12 дней назад
Подскажите, пожалуйста, почему упал самбит 08.10.2025 23:30
hoeger6716
0
12 дней назад
Здравствуйте! Название Вашей команды - hoeger67166313
Ошибка на 41ом примере:
ValueError: The decoder prompt (length 6133) is longer than the maximum model length of 4096. Make sure that max_model_len
is no smaller than the number of text tokens.
0
12 дней назад
подскажите, пожалуйста, причину падения сабмита 09.10.2025 15:03 (WealthLab)
учел и float и деление на 0, памяти тоже должно хватать
0
11 дней назад
Здравствуйте! Ошибка на первом примере
Exception: CUDA out of memory. Tried to allocate 128.00 MiB. GPU 0 has a total capacity of 79.25 GiB of which 81.19 MiB is free. Process 462 has 0 bytes memory in use. Including non-PyTorch memory, this process has 0 bytes memory in use.
0
11 дней назад
Of the allocated memory 5.32 GiB is allocated by PyTorch, and 1.16 GiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentation for Memory Management (https://pytorch.org/docs/stable/notes/cuda.html#environment-variables) in 66 row
0
11 дней назад
Зависло на шаге 1
1
11 дней назад
У вас сейчас есть активный запуск на 22 шаге. Как вы сделали вывод о зависании?
0
11 дней назад
Тоже самое - слетело на первом шаге
0
11 дней назад
10.10.2025 15:29 - cassin6527
0
11 дней назад
Что значит слетело? Ваш запуск на текущий момент на 10 шаге и в активном статусе.
0
10 дней назад
Перестала работать загрузка файлов!
0
10 дней назад
Разобрался! Проблема была в название архива.. ЧТо-то ему не понравился 66+краш----3.zip причем 66+краш-1.zip загрузил нормально
0
10 дней назад
очень может быть что первые два верхних места - Это друзья залили почти одно и то же и следующие с третьего По пятое место тоже друзья залили одно и то же как вы с этим боретесь чтобы не было сговора в первых местах?
0
8 дней назад
Первые два места выглядят конечно максимально странно:
1 место - 0.84576
2 место - 0.84576
При этом отрыв от 3 места - огромный.
А вот дальше, вроде бы без аномалий.
0
8 дней назад
3-5 в ноздрю идут
0
7 дней назад
Моя классификация:
Золотая лига 84-85
Серебряная лига 71-74
Бронзовая лига 66-70
РАГ 60-65
ДНО ГРЕМУЧЕЕ <60
0
7 дней назад
Добрый день.
Падают сабмиты, без логов, на полном сете.
Как узнать причину?
Команда prohaska9375, дата сабмита 14.10.2025 09:23.
0
6 дней назад
Здравствуйте! Ошибка на 88ом примере
TypeError: expected string or bytes-like object
0
7 дней назад
Я так понимаю у меня на 17 шаге упало, потому что я на 16 шаге корзину нажал и начал новое решение грузить?
0
6 дней назад
Здравствуйте. Это не связанные события. Активный запуск не падает при загрузке другого сабмита. Он упал по другой причине.
0
7 дней назад
здравствуйте, ломается на 2 шаге очистка дискового пространства. как я понимаю это значит что архив не начинал распаковку, просто сбой инфраструктуры и проблемы с очисткой сервера и надо подождать/повторно отправить?
причем не загружается ни один файл, даже пустые которые железно прогрузиться должны?
0
6 дней назад
Добрый день. Пвдение на этом шаге не связано с вашим сабмитом. Подскажите это поведение повторяется? Можете уточнить имя команды?
0
7 дней назад
прошу подсказать почему не прошел сабмит 14.10.2025 09:31 (WealthLab)
не показывает ошибку, по тайм-ауту еще рано тоже падать.
0
6 дней назад
Здравствуйте! Мне сказали, что Ваш сабмит упал на ограниченном сете по time limit и Вы должны видеть логи на своей стороне.
0
7 дней назад
помогите. в архив кладу папку "models" в ней папка "QWEN" в ней файлы нейронки. как к ней в коде обращаться в какой она папке оказывается? например qwen_model_path = "/models/Qwen" не проходит.
0
6 дней назад
qwen_model_path = "submit/Qwen"
0
6 дней назад
очень может быть что первые два верхних места - Это друзья залили почти одно и то же и следующие с третьего По пятое место тоже друзья залили одно и то же как вы с этим боретесь чтобы не было сговора в первых местах?
0
6 дней назад
Вы бы также усердно задачей занимались, как ищете теории заговора. Я Denisiuskley и мне не очень приятно читать такие беспочвенные обвинения. Мне самому удивительно, что метрики совпали, но свое решение я не обсуждал ни с кем.
0
6 дней назад
Здравствуйте! Хотел отправить цитаты из правил, но из-за проблем платформы не получается послать длинный текст.
Вы можете прочитать пункты 6.1.7, 6.2, 6.3, а так же запрет private comminication в пункте 3.8.
В случае обнаружения каких-либо нарушений, мы дисквалифицируем участников после оценки решений на итоговом (приватном) лидерборде.
0
6 дней назад
если нет плагиата то и волноваться не о чем. а я бы проверял решения на месте организаторов. вам будет тоже не приятно если первые 5 мест займут студенты из общаги с почти одинаковыми решениями. ничего личного. спасибо за помощь.
1
5 дней назад
При использовании детерменированного вывода гигачата можно получить примерно один и тот же скор, а первые 2 места могут быть совпадением. Вам сказали что организаторы проверят решения private sharing. Давайте вы будете придумывать свое решение, а не искать теории заговора и беспочвенно обвинять участников, попутно указывая организаторам что делать.
0
4 дня назад
barrows4322 правильно привлекает внимание организаторов. Потому что совпадение скора до 5 знака после запятой (при таком отрыве) - явно аномальная ситуация. И может свидетельствовать о лике данных, поломке LLM-as-Judge и еще куче вещей.
0
5 дней назад
Добрый день.
Падают сабмиты, без логов, на полном сете.
Как узнать причину?
Команда DevLake, дата сабмита 15.10.2025 20:58
0
5 дней назад
Здравствуйте! На 75ом примере:
Exception: 'float' object has no attribute 'strip' in 91 row
0
5 дней назад
Кстати там Frida доступна на серваке - но я так понимаю ей пользоваться нельзя а надо свою загружать, будьте бдительны что вы свою загружаете, а то мало ли что, я случайно заметил что не локальную использовал
0
4 дня назад
Подскажите за сколько минут должен выполняться тестовое задание чтобы полный сет успел выполниться за 6 часов?
0
4 дня назад
Вроде бы надо чтобы в среднем ответ на 1 вопрос от начала до конца занимал не более 21 секунды - вероятно время начального запуска еще и разогрева отнимать может
1
4 дня назад
подскажите пожалуйста, почему у меня падает baseline на этапе запуска?
Я же правильно понимаю, что решением должен быть архив с папкой submit, внутри которой init.py и model_inference.py с классом SubmitModelWithMemory?
в логах написанно cannot import name 'SubmitModelWithMemory' from 'submit'.
0
4 дня назад
Здравствуйте! Нет, в архиве не должно быть папки submit.
Прикладываю файл сабмита с базовым решением (после загрузки надо поменять расширение на zip, если скачалось с расширением .zip.bin)
1
4 дня назад
А в фразах ассистента могут быть факты?
0
4 дня назад
Думаю что конечно
0
4 дня назад
ну я тоже так думал, пока не проверил)
переформулирую вопрос, есть ли в датасете вопросы, ответ на которые лежит в сообщениях ассистента, а не юзера?
0
4 дня назад
Надеюсь Кемер и Клей используют для генерации не гигачат и их дисквалифицируют! =)
1
3 дня назад
Подскажите пожалуйста почему упало 17.10.2025 12:55 Грино
0
13 часов назад
Здравствуйте!
Exception: ❌ answer_to_question failed: ❌ generate_answer failed: ❌ Ошибка извлечения ответа из chunk #6: ❌ Chunk с role='user' не содержит [Подтверждение:...]!
Это означает что в топе оказался ВОПРОС, а не ОТВЕТ!
1
2 дня назад
Добрый вечер, подскажите, пожалуйста, ошибку у The Team, дата 16.10.2025 21:14
0
13 часов назад
Здравствуйте! На 75ом примере: TypeError: TextEncodeInput must be Union[TextInputSequence, Tuple[InputSequence, InputSequence]]
0
2 дня назад
Подскажите, пожалуйста, какой докер-образ запускается?
0
2 дня назад
У них в репозитории на гите есть докерфайл, в котором можно найти используемый образ. Ссылка на гит есть в описании задачи
0
2 дня назад
Подскажите причину падения пайплайна
19.10.2025 12:32
Команда rosenbaum17832621
0
13 часов назад
Здравствуйте! На 2ом примере: ValueError: Модель вернула сообщение в некорректном формате: {
Далее идёт reasoning c использованием нескольких шагов и фактов, не уверен что могу публиковать это здесь.
0
16 часов назад
Добрый день, посмотрите пожалуйста причину падения последнего сабмита ankunding3595
0
13 часов назад
Добрый день. Напишите пожалуйста название команды и дату/время сабмита.
0
12 часов назад
0
11 часов назад
Здравствуйте! На 75ом примере: TypeError: 'float' object is not subscriptable
1
11 часов назад
В постановке задачи есть фраза: "Ответить на вопрос должна модель GigaChat Lite, инструкцию для которой участник формирует самостоятельно."
Также есть комментарий: "Настоятельно рекомендуется использовать предложенную модель гигачата( есть участники в текущем топе таблицы, которые вообще не использовали гигачат)"
Хотелось бы, чтобы организаторы внесли ясность и ответили на следующие два вопроса.
Можно ли использовать другую LLM ВМЕСТО GigaChat?
Можно ли использовать другую LLM СОВМЕСТНО с GigaChat (в виде ансамбля или ещё как то)?
1
11 часов назад
В ограничениях написано: "Ограничение на суммарный вес загружаемого решения: 5 Гб"
5Гб - это ограничение на запакованный архив или уже на распакованные данные?
1