exam-evaluator / analyze_features.py
KarmanovaLidiia
Initial clean commit for HF Space (models via Git LFS)
bcb314a
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
def analyze_extracted_features():
"""Анализ извлеченных признаков"""
# Загружаем извлеченные признаки
features_df = pd.read_csv('real_data_features.csv', index_col=0)
print("📊 ДЕТАЛЬНЫЙ АНАЛИЗ ИЗВЛЕЧЕННЫХ ПРИЗНАКОВ")
print("=" * 50)
print(f"Всего признаков: {len(features_df.columns)}")
print(f"Обработано строк: {len(features_df)}")
# Анализ заполненности
null_analysis = features_df.isnull().sum()
null_features = null_analysis[null_analysis > 0]
if len(null_features) > 0:
print(f"\n❌ Признаки с пропусками:")
for feature, null_count in null_features.items():
print(f" {feature}: {null_count} пропусков ({null_count / len(features_df):.1%})")
else:
print(f"\n✅ Все признаки полностью заполнены!")
# Статистика по числовым признакам
numeric_features = features_df.select_dtypes(include=[np.number])
print(f"\n📈 СТАТИСТИКА ПРИЗНАКОВ:")
stats_summary = numeric_features.agg(['mean', 'std', 'min', 'max']).T
stats_summary['cv'] = stats_summary['std'] / stats_summary['mean'] # Коэффициент вариации
# Показываем топ-10 самых информативных признаков
informative_features = stats_summary[stats_summary['std'] > 0].sort_values('cv', ascending=False)
print(f"\n🎯 ТОП-10 самых информативных признаков (по вариативности):")
for feature, row in informative_features.head(10).iterrows():
print(f" {feature:25} mean={row['mean']:6.2f} std={row['std']:6.2f} cv={row['cv']:.2f}")
# Визуализация распределения ключевых признаков
key_features = ['text_length', 'word_count', 'lexical_diversity', 'composite_quality_score']
available_features = [f for f in key_features if f in numeric_features.columns]
if available_features:
plt.figure(figsize=(15, 10))
for i, feature in enumerate(available_features, 1):
plt.subplot(2, 2, i)
plt.hist(numeric_features[feature].dropna(), bins=20, alpha=0.7, edgecolor='black')
plt.title(f'Распределение {feature}')
plt.xlabel(feature)
plt.ylabel('Частота')
plt.tight_layout()
plt.savefig('features_distribution.png', dpi=150, bbox_inches='tight')
plt.show()
print(f"\n📊 Визуализация сохранена в features_distribution.png")
# Анализ корреляций между признаками
if len(numeric_features.columns) > 5:
# Выбираем топ-15 самых вариативных признаков для корреляционной матрицы
top_features = informative_features.head(15).index.tolist()
plt.figure(figsize=(12, 10))
correlation_matrix = numeric_features[top_features].corr()
mask = np.triu(np.ones_like(correlation_matrix, dtype=bool))
sns.heatmap(correlation_matrix, mask=mask, annot=True, fmt='.2f', cmap='coolwarm',
center=0, square=True, cbar_kws={"shrink": .8})
plt.title('Корреляционная матрица признаков (топ-15)')
plt.tight_layout()
plt.savefig('features_correlation.png', dpi=150, bbox_inches='tight')
plt.show()
print(f"📈 Корреляционная матрица сохранена в features_correlation.png")
# Анализ качества композитного показателя
if 'composite_quality_score' in numeric_features.columns:
print(f"\n🎯 АНАЛИЗ КОМПОЗИТНОГО ПОКАЗАТЕЛЯ КАЧЕСТВА:")
quality_scores = numeric_features['composite_quality_score']
print(f" Среднее: {quality_scores.mean():.3f}")
print(f" Стандартное отклонение: {quality_scores.std():.3f}")
print(f" Диапазон: [{quality_scores.min():.3f}, {quality_scores.max():.3f}]")
# Распределение по квантилям
quantiles = quality_scores.quantile([0.25, 0.5, 0.75])
print(f" Квантили: 25%={quantiles[0.25]:.3f}, 50%={quantiles[0.5]:.3f}, 75%={quantiles[0.75]:.3f}")
def check_feature_correlations_with_target():
"""Проверка корреляции признаков с целевой переменной (если есть оценки)"""
features_df = pd.read_csv('real_data_features.csv', index_col=0)
# Ищем колонку с оценками в исходных данных
score_columns = [col for col in features_df.columns if 'score' in col.lower() or 'оценк' in col.lower()]
if score_columns:
target_col = score_columns[0]
print(f"\n🎯 КОРРЕЛЯЦИЯ ПРИЗНАКОВ С {target_col}:")
print("-" * 40)
correlations = features_df.corr()[target_col].abs().sort_values(ascending=False)
# Показываем топ-10 наиболее коррелирующих признаков
top_correlated = correlations.head(11) # +1 потому что target сам с собой
for feature, corr in top_correlated.items():
if feature != target_col:
actual_corr = features_df.corr()[target_col][feature]
direction = "↑" if actual_corr > 0 else "↓"
significance = "***" if abs(actual_corr) > 0.3 else "**" if abs(actual_corr) > 0.2 else "*" if abs(
actual_corr) > 0.1 else ""
print(f" {direction} {feature:25} {actual_corr:+.3f} {significance}")
else:
print(f"\nℹ️ Целевая переменная (оценки) не найдена в данных")
if __name__ == "__main__":
analyze_extracted_features()
check_feature_correlations_with_target()