File size: 2,985 Bytes
45eca48
 
 
 
 
 
 
 
 
 
 
 
52e2f7a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
---
title: Practica131clase
emoji: 
colorFrom: gray
colorTo: gray
sdk: gradio
sdk_version: 4.31.5
app_file: app.py
pinned: false
license: cc-by-nc-sa-4.0
---

# Modelo de Reconocimiento Facial de Expresiones

## Descripción

Este modelo ha sido entrenado para clasificar expresiones faciales en siete categorías: Enfadado, Disgustado, Miedo, Feliz, Triste, Sorprendido y Neutral. Es parte de un proyecto del curso de especialización en IA y Big Data, diseñado para demostrar el uso de modelos preentrenados y técnicas de Fine-Tuning en la clasificación de imágenes.

## Detalles del Modelo

- **Arquitectura**: ResNet50
- **Dataset de Entrenamiento**: [FER2013](https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data)
- **Número de Etiquetas**: 7
- **Tamaño de Imagen**: 224x224
- **Función de Activación de Salida**: Softmax
- **Función de Pérdida**: CrossEntropyLoss
- **Optimizador**: Adam
- **Tasa de Aprendizaje**: 0.001

## Transformaciones de Datos

Durante el preprocesamiento, las imágenes se sometieron a las siguientes transformaciones:

- **Resize**: 224x224
- **RandomHorizontalFlip**: True
- **ColorJitter**: 
  - Brillo: 0.2
  - Contraste: 0.2
  - Saturación: 0.2
  - Tinte: 0.1
- **Normalize**:
  - Media: [0.485, 0.456, 0.406]
  - Desviación Estándar: [0.229, 0.224, 0.225]

## Mejoras Realizadas

- **Congelación y Descongelación Selectiva de Capas**: Descongelamos las últimas capas de la red preentrenada para permitir un ajuste más fino.
- **Early Stopping**: Implementamos early stopping para detener el entrenamiento cuando la precisión de validación dejaba de mejorar.
- **Scheduler de Tasa de Aprendizaje**: Utilizamos un scheduler para reducir la tasa de aprendizaje durante el entrenamiento, ayudando a afinar el modelo.

## Resultados

El modelo alcanzó los siguientes resultados durante el entrenamiento y validación:

- **Train Accuracy**: ~97.5%
- **Validation Accuracy**: ~61%
- **Test Accuracy**: ~62.5%

## Uso del Modelo

Para utilizar este modelo, puedes cargarlo y realizar predicciones en nuevas imágenes de la siguiente manera:

```python
import torch
from torchvision import models, transforms
import json
from PIL import Image

# Cargar el modelo
model = models.resnet50()
model.load_state_dict(torch.load("pytorch_model.bin", map_location=torch.device('cpu')))
model.eval()

# Configuración
with open("config.json") as f:
    config = json.load(f)

# Preprocesamiento de imágenes
transform = transforms.Compose([
    transforms.Resize((config["image_size"], config["image_size"])),
    transforms.ToTensor(),
    transforms.Normalize(mean=config["transformations"]["Normalize"]["mean"], std=config["transformations"]["Normalize"]["std"])
])

# Ejemplo de uso con una imagen
image = Image.open("ruta_a_tu_imagen.jpg")
image = transform(image).unsqueeze(0)
output = model(image)
_, predicted = torch.max(output, 1)
print("Predicted emotion:", predicted.item())