Datasets:
Update README.md
Browse files
README.md
CHANGED
|
@@ -52,96 +52,96 @@ size_categories:
|
|
| 52 |
---
|
| 53 |
|
| 54 |
|
| 55 |
-
|
| 56 |
|
| 57 |
|
| 58 |
-
##
|
| 59 |
|
| 60 |
-
RuCLEVR
|
| 61 |
|
| 62 |
-
RuCLEVR
|
| 63 |
|
| 64 |
-
|
| 65 |
|
| 66 |
-
|
| 67 |
|
| 68 |
|
| 69 |
-
##
|
| 70 |
|
| 71 |
-
|
| 72 |
|
| 73 |
|
| 74 |
-
##
|
| 75 |
|
| 76 |
-
###
|
| 77 |
|
| 78 |
-
|
| 79 |
|
| 80 |
-
- `instruction` [str] —
|
| 81 |
-
- `inputs` —
|
| 82 |
-
- `image` [str] —
|
| 83 |
-
- `question` [str] —
|
| 84 |
-
- `outputs` [str] —
|
| 85 |
-
- `meta` —
|
| 86 |
-
- `id` [int] —
|
| 87 |
-
- `question_type` [str] —
|
| 88 |
-
- `image` —
|
| 89 |
-
- `synt_source` [list] —
|
| 90 |
-
- `type` [
|
| 91 |
|
| 92 |
|
| 93 |
-
###
|
| 94 |
|
| 95 |
```json
|
| 96 |
{
|
| 97 |
-
"instruction": "
|
| 98 |
"inputs": {
|
| 99 |
-
"image": "samples/
|
| 100 |
-
"question": "
|
| 101 |
},
|
| 102 |
-
"outputs": "
|
| 103 |
"meta": {
|
| 104 |
-
"id":
|
| 105 |
"question_type": "binary",
|
| 106 |
"image": {
|
| 107 |
"synt_source": [
|
| 108 |
"blender"
|
| 109 |
],
|
| 110 |
-
"type":
|
|
|
|
|
|
|
| 111 |
}
|
| 112 |
}
|
| 113 |
}
|
| 114 |
```
|
| 115 |
|
| 116 |
|
| 117 |
-
###
|
| 118 |
|
| 119 |
-
|
| 120 |
|
| 121 |
-
|
| 122 |
|
| 123 |
-
|
| 124 |
-
|
| 125 |
-
|
| 126 |
-
Вопрос:{question}
|
| 127 |
-
Ответ:
|
| 128 |
-
```
|
| 129 |
|
| 130 |
|
| 131 |
-
|
| 132 |
|
| 133 |
-
|
| 134 |
|
| 135 |
-
|
| 136 |
|
| 137 |
-
|
| 138 |
|
| 139 |
|
| 140 |
-
|
| 141 |
|
|
|
|
| 142 |
|
| 143 |
-
|
| 144 |
|
| 145 |
-
|
| 146 |
|
| 147 |
-
-
|
|
|
|
| 52 |
---
|
| 53 |
|
| 54 |
|
| 55 |
+
## ruCLEVR
|
| 56 |
|
| 57 |
|
| 58 |
+
## Описание задачи
|
| 59 |
|
| 60 |
+
RuCLEVR — это датасет для задачи визуального вопросно-ответного ризонинга (Visual Question Answering, VQA), созданный по методологии [CLEVR](https://cs.stanford.edu/people/jcjohns/clevr/), адаптированной для русского языка.
|
| 61 |
|
| 62 |
+
RuCLEVR состоит из автоматически сгенерированных изображений 3D-объектов, каждый из которых характеризуется такими признаками, как форма, размер, цвет и материал, расположенных в различных условиях и образующих сложное визуальное окружение. Набор данных включает вопросы, основанные на этих изображениях и разбитые на определенные группы, такие как запрос атрибутов, сравнение атрибутов, существование, подсчет и целочисленное сравнение. Для создания вопросов использованы предопределённые шаблоны, что позволяет обеспечить последовательность и разнообразие. Датасет был создан с нуля, чтобы избежать предвзятости модели. Вопросы предназначены для оценки способности моделей выполнять задачи, требующие точного визуального рассуждения, анализируя признаки и отношения объектов в каждой сцене. Благодаря такому структурированному дизайну датасет обеспечивает контролируемую среду для оценки навыков точного рассуждения моделей при работе с визуальными данными.
|
| 63 |
|
| 64 |
+
Тестируемые навыки моделей: Spatial object relationship, Physical property understanding, Object recognition, Object localization, Spatial object relationship, Static counting
|
| 65 |
|
| 66 |
+
Авторы: Ксения Бирюкова, Дарья Челонокова, Джамиля Эркенова, Артем Червяков, Мария Тихонова
|
| 67 |
|
| 68 |
|
| 69 |
+
## Мотивация
|
| 70 |
|
| 71 |
+
Датасет RuCLEVR был создан для оценки возможностей визуальных рассуждений мультимодальных языковых моделей, в частности на русском языке, где не хватает диагностических датасетов для таких задач. Его цель — оценить способность моделей рассуждать о формах, цветах, количествах и пространственных отношениях в визуальных сценах, выходя за рамки базового понимания языка и проверяя способности моделей к комплексным рассуждениям. Данный навык необходим моделям, которые, как ожидается, будут анализировать визуальные данные и выполнять задачи, требующие логических выводов о взаимодействии объектов. Дизайн датасета, в котором используются структурированные семейства вопросов, обеспечивает всестороннюю и непредвзятую оценку, сосредоточенную на навыках рассуждения моделей, а не на распознавании паттернов.
|
| 72 |
|
| 73 |
|
| 74 |
+
## Описание датасета
|
| 75 |
|
| 76 |
+
### Поля данных
|
| 77 |
|
| 78 |
+
Каждый вопрос в датасете содержит следующие поля:
|
| 79 |
|
| 80 |
+
- `instruction` [str] — Промпт-инструкция для модели, содержащая шаблон для вставки элементов вопроса.
|
| 81 |
+
- `inputs` — Вводные данные, формирующие задание для модели.
|
| 82 |
+
- `image` [str] — Путь к файлу с изображением, к которому относится вопрос.
|
| 83 |
+
- `question` [str] — Текст вопроса.
|
| 84 |
+
- `outputs` [str] — Правильный ответ на вопрос.
|
| 85 |
+
- `meta` — Метаданные, относящиеся к тестовому примеру, но не используемые в вопросе (скрытые от тестируемой модели).
|
| 86 |
+
- `id` [int] — Номер-идентификатор вопроса в датасете.
|
| 87 |
+
- `question_type` [str] — Тип вопроса в зависимости от возможных ответов: бинарный, цвета, количество, материалы, формы, размер.
|
| 88 |
+
- `image` — Метаданные, относящиеся к изображению.
|
| 89 |
+
- `synt_source` [list] — Источники, с помощью которых сгенерированы или воссозданы данные для формирования вопроса, в том числе названия генеративных моделей.
|
| 90 |
+
- `type` [list] — Тип изображения — согласно классификации изображений для датасетов MERA.
|
| 91 |
|
| 92 |
|
| 93 |
+
### Пример данных
|
| 94 |
|
| 95 |
```json
|
| 96 |
{
|
| 97 |
+
"instruction": "Изображение:\n<image>\nНа этом изображении показаны различные геометрические объекты со своей формой, цветом и расположением друг относительно друга.\nВопрос: {question}\nЭтот вопрос касается объектов на изображении. Ответь на вопрос одним словом, употребив начальную форму этого слова, или числом, используя цифры для его записи.\nОтвет:",
|
| 98 |
"inputs": {
|
| 99 |
+
"image": "samples/image0007.png",
|
| 100 |
+
"question": "Есть ли еще какие-нибудь предметы такой же формы, как и большой металлический предмет?"
|
| 101 |
},
|
| 102 |
+
"outputs": "нет",
|
| 103 |
"meta": {
|
| 104 |
+
"id": 7,
|
| 105 |
"question_type": "binary",
|
| 106 |
"image": {
|
| 107 |
"synt_source": [
|
| 108 |
"blender"
|
| 109 |
],
|
| 110 |
+
"type": [
|
| 111 |
+
"generated"
|
| 112 |
+
]
|
| 113 |
}
|
| 114 |
}
|
| 115 |
}
|
| 116 |
```
|
| 117 |
|
| 118 |
|
| 119 |
+
### Создание датасета
|
| 120 |
|
| 121 |
+
Для создания RuCLEVR использовались два подхода: 1) генерация новых примеров и 2) аугментация данных с заменой цвета. Ниже каждый подход описан более подробно:
|
| 122 |
|
| 123 |
+
**Генерация новых примеров**: Были сгенерированы новые уникальные изображения и соответствующие вопросы с нуля. Этот процесс включал несколько этапов для обеспечения контролируемой и всесторонней оценки визуального рассуждения. Сначала автоматически генерировались 3D-изображения с использованием [Blender](https://www.blender.org/download/releases/2-78/) с изображением объектов с заданными свойствами, такими как форма, размер, цвет и материал. Эти объекты были размещены в различных конфигурациях для создания сложных сцен. Затем на основе заданных шаблонов были сгенерированы вопросы и ответы к ним. Чтобы избежать ошибок в грамматических формах (падежи, склонения), мы генерировали вопросы на английском языке, после чего перевели их на русский с помощью Google Translate. После генерации вопросы были отфильтрованы для выявления некорректных переводов с использованием модели [ruRoBERTa-large-rucola](https://huggingface.co/RussianNLP/ruRoBERTa-large-rucola), обученной для задачи лингвистической приемлемости. Кроме того, мы проверили датасет на отсутствие дубликатов.
|
| 124 |
|
| 125 |
+
**Аугментация данных с заменой цвета**: Нами были применены техники аугментации данных для повышения вариативности и сложности тестовой части с использованием разработанного [скрипта](https://github.com/erkenovaj/RuCLEVR/tree/main) для систематической замены цветов в вопросах и изображениях по заданным правилам. Аугментация изначально проводилась для сэмплов на английском языке, чтобы избежать морфологических сложностей. После аугментации вопросы были переведены на русский язык и проверены на грамматическую корректность.
|
| 126 |
+
|
| 127 |
+
Финально датасет был вручную проверен, некорректные примеры, появившиеся из-за автоматического способа генерации данных, были исключены.
|
|
|
|
|
|
|
|
|
|
| 128 |
|
| 129 |
|
| 130 |
+
## Оценка
|
| 131 |
|
| 132 |
+
### Метрики
|
| 133 |
|
| 134 |
+
Для агрегированной оценки ответов моделей используются следующие метрики:
|
| 135 |
|
| 136 |
+
- `Exact match`: Метрика Exact match вычисляет среднее по оценкам всех обработанных вопросов, где оценка имеет значение 1, если предсказанная строка точно совпадает с правильным ответом, и 0 в остальных случаях.
|
| 137 |
|
| 138 |
|
| 139 |
+
### Human baseline
|
| 140 |
|
| 141 |
+
Human baseline — это оценка усредненных ответов людей на вопросы бенчмарка. Оценка проводится по тем же метрикам, что и для моделей.
|
| 142 |
|
| 143 |
+
Для всех вопросов датасета были получены ответы разметчиков на crowd-source платформе с перекрытием 5. Ответы в свободной форме были нормализованы (регистр, пробелы) для сравнения с эталоном. Агрегированным ответом считался тот, который был выбран большинством (majority vote).
|
| 144 |
|
| 145 |
+
Результаты оценки:
|
| 146 |
|
| 147 |
+
- Exact match – 0.96
|