MIME-Version: 1.0 Content-Type: multipart/related; boundary="----=_NextPart_01DCC030.1D92B7B0" Este documento es una página web de un solo archivo, también conocido como "archivo de almacenamiento web". Si está viendo este mensaje, su explorador o editor no admite archivos de almacenamiento web. Descargue un explorador que admita este tipo de archivos. ------=_NextPart_01DCC030.1D92B7B0 Content-Location: file:///C:/9927A24B/304.diagramacionok.htm Content-Transfer-Encoding: quoted-printable Content-Type: text/html; charset="windows-1252"
|
Algoritmos de balanceo probabilístico: desarrollo y evaluación de un
sistema informático para clasificación binaria |
|
Probabilistic
Balancing Algorithms: Development and Evaluation of a Software System for
Binary Classification |
|
|
|
Ireimis=
de
las Mercedes Leguen de Varona |
|
ireimis.leguen<=
/i> @reduc.edu.cu • https:/=
/orcid.org/0000-0002-1886-7644
|
|
|
|
Julio
Madera Quintana |
|
julio.madera@reduc.edu.cu • =
https:/=
/orcid.org/0000-0001-5551-690X
|
|
|
|
UNIVERSIDAD DE CAMAGÜEY
“IGNACIO AGRAMONTE LOYNAZ”, CAMAGÜEY, CUBA |
|
|
|
Alfredo=
Simon-Cuevas |
|
asimon@ceis.cujae.edu.cu • <=
span
lang=3DES-TRAD>https:/=
/orcid.org/0000-0002-6776-9434
|
|
|
|
UNIVERSIDAD TECNOLÓGIC=
A DE
LA HABANA “JOSÉ ANTONIO ECHEVERRÍA”, CUJAE, CUBA |
|
Marcos
Antonio Rodríguez Guerra |
|
marcos.rodriguez@reduc.edu.cu • https:/=
/orcid.org/0009-0001-0661-1932 |
|
UNIVERSIDAD DE CAMAGÜEY
“IGNACIO AGRAMONTE LOYNAZ”, CAMAGÜEY, CUBA |
|
Recibido: 2026-02-13 • Aceptado: 2026-03-26 |
|
|
|
Resumen El
desbalance de clases es un problema habitual en tareas de clasificación
supervisada, donde la clase minoritaria se encuentra representada por una
proporción significativamente menor de instancias. Esta situación comprom=
ete
la capacidad de los modelos para reconocer correctamente los casos más
relevantes, como en la clasificación de texto, detección de fraudes o
diagnósticos médicos. Aunque existen múltiples algoritmos de sobremuestreo que abordan este reto, las soluciones
probabilísticas que se proponen en este trabajo: SMOTE-COV-LW, SMOTE-RL y
SMOTE-EN, presentan un enfoque innovador basado en modelos probabilístico=
s.
Sin embargo, su uso ha estado limitado a entornos de programación, lo que
restringe su aplicación por parte de usuarios no especializados. Para
facilitar su acceso, se diseñó un sistema informático que permite aplicar
estos algoritmos de sobremuestreo probabilíst=
icos
para conjuntos de datos de clasificación binaria de forma gráfica y sin
necesidad de conocimientos técnicos avanzados. El sistema fue desarrollado
con tecnologías como Python y PyQt6, e incluye herramientas para importar
bases de conocimientos de clasificación binarias, aplicar balanceo y expo=
rtar
resultados. Para evaluar el rendimiento de los algoritmos probabilísticos
propuestos, se realizó una comparación con técnicas clásicas ampliamente
utilizadas (SMOTE, Borderline-SMOTE, SMOTE-RS=
B y
ADASYN). La evaluación se realizó sobre múltiples conjuntos de datos de
clasificación binaria desbalanceados, utilizando como clasificadores a C4=
.5,
MLP, KNN, Random Forest y SVM, y como métricas de desempeño el AUC y el
F1-Score. Los resultados mostraron que los algoritmos probabilísticos
alcanzaron resultados similares o incluso superiores en varios escenarios=
, lo
que evidencia su competitividad frente a los métodos tradicionales. |
|
Palabras clave: Aprendizaje
Automatizado; Desbalance de Clases; Sobremuestreo
Probabilístico; Modelos Probabilísticos; Sistema Informático. |
|
ABSTRACT |
|
Cla=
ss
imbalance is a common problem in supervised classification tasks, where t=
he
minority class is represented by a significantly smaller proportion of
instances. This situation compromises the model's ability to correctly
recognize the most relevant cases, such as in text classification, fraud
detection, or medical diagnoses. While multiple oversampling algorithms
address this challenge, the probabilistic solutions proposed in this
work—SMOTE-COV-LW, SMOTE-RL, and SMOTE-EN—present an innovative approach =
based
on probabilistic models. However, their use has been limited to programmi=
ng
environments, which restricts their application by non-specialist users. =
To
facilitate access, a software system was designed to apply these
probabilistic oversampling algorithms to binary classification datasets i=
n a
graphical manner, without the need for advanced technical knowledge. The
system was developed using technologies such as Python and PyQt6 and incl=
udes
tools for importing binary classification datasets, applying balancing
techniques, and exporting results. To evaluate the performance of the
proposed probabilistic algorithms, a comparison was made with widely used
classical techniques (SMOTE, Borderline-SMOTE, SMOTE-RSB, and ADASYN). The
evaluation was conducted on multiple imbalanced binary classification
datasets, using C4.5, MLP, KNN, Random Forest, and SVM as classifiers, and
AUC and F1-Score as performance metrics. The results showed that the
probabilistic algorithms achieved similar or even superior results in sev=
eral
scenarios, demonstrating their competitiveness compared to traditional
methods. |
|
Keywords:=
b> Machine Learning; Class Imbalance; Probabilistic Oversampling;
Probabilistic Models; Software System. |
|
|
INTRODUCCIÓN
La inteligencia artificial y el aprendizaje automático son herramien=
tas
clave para extraer conocimiento en dominios críticos como el diagnóstico mé=
dico
y la detección de fraudes (Soofi & Awan, 2017; Zhang et al., 2021). No
obstante, su eficacia se ve limitada por el desbalance de clases, fenómeno
donde la clase de interés está subrepresentada, provocando que los modelos
favorezcan a la clase mayoritaria y pierdan utilidad práctica (Ramentol et al., 2012a; Krawczyk, 2016).
Se puede definir que un conjunto de datos es balanceado si tiene
aproximadamente igual porcentaje de ejemplos en los conceptos a clasificar,=
es
decir, si la distribución de ejemplos por clases es uniforme; de lo contrar=
io,
es no balanceado. Para medir el grado de desbalance de un problema se defin=
e la
razón de desbalance (IR, del inglés Imbalance R=
atio)
(Fernández, García, del Jesus, & Herrera, 2=
008):
(1)
C+ es el número de instancias =
que
pertenecen a la clase mayoritaria.
C− es
el número de instancias que pertenecen a la clase minoritaria.
Por consiguiente, un conjunto de datos es no balanceado cuando prese=
nta
una marcada diferencia entre los ejemplos de las clases. Esta diferencia
provoca que los algoritmos de clasificación tengan gran exactitud para calc=
ular
modelos sobre la clase más representada (mayoritaria), pero pobre exactitud
predictiva sobre los elementos de la clase menos representada (minoritaria).
Esto resulta en que, al final del proceso, las clases con mayor número de
instancias quedan muy bien clasificadas mientras que las minoritarias tiend=
en a
estar mal clasificadas, debido a que los clasificadores intentan reducir el
error global sin tener en cuenta la distribución de los datos. En los conju=
ntos
no balanceados, el conocimiento original suele etiquetarse como rarezas o r=
uido,
enfocándose exclusivamente en las medidas globales (Chawla, Lazarevic, Hall,
& Bowyer, 2003; Fernández et al., 2018). El problema con los conjuntos =
no
balanceados no es únicamente la desproporción en la representatividad, sino
también el alto solapamiento entre las clases (López et al., 2013; Das et a=
l.,
2023).
Para mitigar este problema, la técnica más extendida es SMOTE (Synthetic Minority Over-<=
span
class=3DSpellE>sampling Technique), que =
genera
ejemplos sintéticos mediante interpolación lineal (Chawla et al., 2002). A =
lo
largo de los años, han surgido numerosas variantes que buscan superar sus
limitaciones (Fernández et al., 2018). Sin embargo, SMOTE y sus variantes —=
como
Borderline-SMOTE (Han et al., 2005), SMOTE-RSB*=
(Ramentol et al., 2012a) y ADASYN (He et al., 2008)—
presentan una limitación estructural: asumen independencia entre atributos,
ignorando las correlaciones intrínsecas de los datos reales (Fernández et a=
l.,
2018; Alghamdi et al., 2022).
Como alternativa, el uso de modelos gráficos probabilísticos permite
modelar explícitamente estas dependencias (Madera, 2008; Murphy, 2022). Bajo
este paradigma, se evalúan tres algoritmos propuestos:
SMOTE-COV-LW: emplea el estimador de Ledoit-Wolf
(Ledoit & Wolf, 2022) para generar muestras=
que
preserven la estructura de covarianza. Este tipo de enfoques basados en
estimación robusta de covarianza ha mostrado ventajas en escenarios de alta
dimensionalidad (Bodnar et al., 2021).
SMOTE-RL: utiliza regresión Lasso (Tibshirani=
span>,
1996; Hastie, Tibshirani & Wainwright, 2019=
) para
la regularización y selección de variables durante la síntesis.
SMOTE-EN: aplica Redes Elásticas (Elastic Net)
(Zou & Hastie, 2005) para manejar la multicolinealidad, un enfoque que =
ha
demostrado ser eficaz en problemas con variables correlacionadas (Algamal & Lee, 2019).
A pesar de su potencial, estas técnicas avanzadas suelen estar
restringidas a entornos de programación, lo que dificulta su adopción por
usuarios no especializados. Por ello, este artículo aborda una doble necesi=
dad:
realizar una evaluación experimental exhaustiva frente a métodos clásicos y
presentar un sistema informático intuitivo (desarrollado en Python y PyQt6)=
que
facilite el acceso a estas herramientas. La validación se realiza mediante
cinco clasificadores (C4.5, MLP, KNN, Random Forest y SVM) y las métricas A=
UC y
F1-Score, demostrando la competitividad de los métodos propuestos y la util=
idad
de la herramienta desarrollada.
METODOLOGÍA
Este estudio se caracteriza por ser de tipo experimental y comparati=
vo,
con un enfoque cuantitativo. El diseño de la investigación se estructuró en=
dos
fases principales: (1) el desarrollo e implementación de tres nuevos algori=
tmos
probabilísticos de balanceo de datos (SMOTE-COV-LW, SMOTE-RL y SMOTE-EN) ju=
nto
con un sistema informático para su uso accesible; y (2) la evaluación
experimental rigurosa de estos algoritmos frente a técnicas clásicas de
La investigación es reproducible, ya que se basa en conjuntos de dat=
os
públicos, métodos algorítmicos descritos formalmente, métricas de evaluación
estandarizadas y un protocolo experimental claramente definido. El enfoque
metodológico combina el desarrollo de software (para la creación del sistem=
a)
con la validación empírica (para la evaluación de los algoritmos).
Sobremuestreo Probabilístico
Para generar muestras sintéticas semánticamente coherentes, se emple=
an
tres métodos basados en Modelos Gráficos Probabilísticos (MGP), que son
estructuras de grafos donde los nodos representan variables aleatorias y las
aristas representan dependencias condicionales entre ellas. Estos grafos
proporcionan una representación compacta de las distribuciones de probabili=
dad
Madera, 2008). Entre los MGP, los Modelos Gráficos Gaussianos se destacan c=
omo
modelos de interacción para distribuciones normales multivariadas (J.
Richardson Ibáñez, 2017). Técnicas como la Matriz de Covarianza, la Regresi=
ón
Lasso y la Red Elástica se utilizan para estimar estos Modelos Gráficos
Gaussianos.
Matriz de Covarianza
La matriz de covarianza
mide la relación lineal entre las varia=
bles
aleatorias de un vector. Se define a partir de las varianzas
y las covarianzas
entre las variables =
y
. Para mejorar la estimación de esta mat=
riz,
especialmente en espacios de alta dimensión con pocas muestras, se emplea el
estimador de contracción de Ledoit-Wolf. Este m=
étodo
combina la matriz de covarianza muestral
con una matriz de estructura simple
(como la matriz identidad), controlada p=
or un
parámetro de contracción que minimiza el error cuadrático medio:=

(2). Esta regularización previen=
e el
sobreajuste al reducir la matriz hacia una estructura más simple (Ledoit & Wolf, 2022).
Regresión Lasso
La regresión Lasso es una técnica de regularización útil para datos =
de
alta dimensión, ya que minimiza la suma de los errores residuales cuadrados
aplicando una penalización =
sobre el valor absoluto de los coeficien=
tes
:
(3).
El parámetro
controla la penalización. A medida que
aumenta, algunos coeficientes se reducen exactamente a cero, lo que previen=
e el
sobreajuste y realiza una selección automática de variables (Lu & Yin,
2022).
Red Elástica (Elastic
Net)
La Red Elástica combina las propiedades de las penalizaciones
(Lasso) y
(Ridge), superando las limitaciones
individuales de ambas al permitir la selección de grupos de variables
correlacionadas:
(4).
Donde
permite la selección de variables anulan=
do
coeficientes, y
reduce la colinealidad contrayendo los
coeficientes sin eliminarlos completamente.
Marco general del pseudocódigo de las propuestas de sobremuestreo probabilístico<= o:p>
Ent=
rada:
Conjunto original
,
Índice de desbalance objetivo
,
Parámetros de regularización.
Sal=
ida:
Conjunto balanceado
.
Identificar cla=
se
minoritaria
y extraer sus instancias
.
Estandarizar
atributos de
.
Entrenar Modelo=
de
Estimación (según variante):
Si COV-LW: Esti=
mar
matriz de covarianza
(Ledoit-Wolf=
) y
obtener su descomposición de Cholesky =
i>
. Calcular vector de medias <=
/span>
.
Si RL / EN:
Entrenar modelo de regresión con penalización Lasso (
) o Elas=
tic
Net (
).
Calcular paráme=
tros
de control (límites, rangos o percentiles de
).
Mientras
hacer:
Generar vector de ruido aleat=
orio
.
Generar instancia sintética (=
):
Si COV-LW: =
.
Si RL o EN:
.
Aplicar transformación invers=
a de
la estandarización.
Ajuste de Rango (Post-procesamiento):
Si COV-LW: Aplicar límites
físicos (IR) o permitir expansión probabilística (FR).
Si RL: Ajustar a límites
observados de los atributos.
Si EN: Realizar ajuste basado=
en
percentiles de los datos originales.
Añadir
con etiqueta
al conjunto
.
Fin Mientras
Devolver
.
Eva=
luación
experimental
Se
utilizaron siete bases de datos binarias (Tabla 1) con Índices de Desbalance
(IR) entre 1.82 y 5.46. El desempeño de las propuestas se comparó con cuatro
métodos clásicos (SMOTE, Borderline-SMOTE, SMOT=
E-RSB
y ADASYN) empleando cinco clasificadores (C4.5, MLP, KNN, Random Forest y S=
VM).
Se aplicó validación cruzada (k=3D10) evaluando AUC y F1-Score.
Tabla 1. Propiedades de los conjuntos de datos seleccion=
ados
para la experimentación
|
Bases de dato=
s |
Número de Cas=
os |
Número de
Atributos |
IR |
|
ecoli2 |
336 |
7 |
5.46 |
|
glass-0-1-2-3_vs_4-5-6 |
214 |
9 |
3.2 |
|
glass1 |
214 |
9 |
1.82 |
|
iris |
150 |
4 |
2 |
|
newthyroid2 |
215 |
5 |
5.14 |
|
pima |
768 |
8 |
1.87 |
|
vehicle3 |
846 |
18 |
2.99 |
El objetivo de este experimento es comparar los resultados obtenidos=
con
los algoritmos de sobremuestreo probabilísticos
frente a los métodos clásicos, para determinar si son competitivos o
superiores.
Tests de validación estadísticos
Para garantizar la rigurosidad del análisis sin asumir normalidad ni
homogeneidad de varianzas, se emplearon pruebas no paramétricas. Se calculó=
el
ranking de los algoritmos utilizando la prueba de Friedman y su variante
ajustada de Iman-Davenport para detectar difere=
ncias
globales significativas. Posteriormente, se seleccionó el algoritmo con mej=
or
desempeño como método de control y se aplicó la prueba post-hoc
de Holm para compararlo con el resto, ajustando los p-valores secuencialmen=
te
para controlar el error tipo I.
Diseño del sistema informático
Para materializar el aporte teórico de esta investigación, se desarr=
olló
BalanceAI, una herramienta de escritorio dirigi=
da a
investigadores y estudiantes que facilita el tratamiento del desbalance de
clases. El sistema fue implementado en Python 3.9 utilizando la biblioteca
PyQt6 para el diseño de su interfaz gráfica, adoptando una arquitectura
altamente modular.
El diseño del flujo de trabajo permite al usuario, sin necesidad de
conocimientos avanzados en programación, realizar el proceso completo desde=
una
única interfaz: carga de conjunto de datos, selección y configuración de
parámetros para 7 algoritmos de balanceo (incluyendo los tres métodos
probabilísticos propuestos), entrenamiento y evaluación con los 5
clasificadores integrados, y finalmente, la visualización y exportación tan=
to
de los datos balanceados como de los reportes de rendimiento.
RESULTADOS Y DISCUSIÓN
Se evaluó la eficacia de las propuestas SMOTE-COV-LW (FR e IR), SMOT=
E-RL
y SMOTE-EN frente a los algoritmos del estado del arte (SMOTE, Borderline-SMOTE, ADASYN y SMOTE-RSB). La Tabla 2 con=
solida
el desempeño de los cinco clasificadores base sobre los siete conjuntos de
datos.
En términos generales, las tres propuestas demostraron una consisten=
cia
superior. SMOTE-RL y SMOTE-EN alcanzaron los valores de F1-Score más altos =
en
la mayoría de los escenarios (ej. 0.97 en ecoli2 con C4.5), validando que el
filtrado de ruido tras el sobremuestreo optimiz=
a la
precisión frente al SMOTE tradicional. Por su parte, SMOTE-COV-LW destacó p=
or
preservar la estructura estadística del conjunto de datos; en el caso críti=
co
de pima (C4.5), la variante FR superó al estado del arte con un AUC de 0.87=
.
Al emplear Random Forest, las tres propuestas dominaron la comparati=
va
con valores de AUC 0.91 y F1-Scor=
e 0.81. Asimismo, en SVM, los métodos
propuestos exhibieron una notable resiliencia ante el colapso de métricas:
mientras que SMOTE-RSB cayó a un F1-Score de 0.07 en pima, SMOTE-RL y
SMOTE-COV-LW mantuvieron el desempeño en 0.63 y 0.68 respectivamente. Esto
confirma que la regularización de Ledoit-Wolf y=
el
filtrado avanzado reducen efectivamente el solapamiento entre clases.
Tab=
la
2. Resultados consolidados de AUC y F1-Score (Formato: AUC / F1-Score).
|
Clasificador |
Base
de datos |
Original=
|
SMOTE=
|
Borderline=
|
ADASYN=
|
SMOTE-RSB=
|
SMOTE COV-LW
(FR) |
SMOTECOV-LW
(IR) |
SMOTE-RL |
SMOTE-EN |
|
C4.5 |
ecoli2 |
0.83 / 0.96 |
0.95 / 0.93 |
0.96 / 0.95 |
0.95 / 0.94 |
0.89 / 0.96 |
0.93 / 0.90 |
0.93 / 0.92 |
0.96 / 0.97 |
0.95 / 0.96 |
|
=
glass-0-1... |
0.86 / 0.96 |
0.96 / 0.95 |
0.96 / 0.95 |
0.95 / 0.94 |
0.94 / 0.96 |
0.94 / 0.93 |
0.96 / 0.96 |
0.96 / 0.96 |
0.96 / 0.96 |
|
|
glass1 |
0.72 / 0.81 |
0.84 / 0.81 |
0.81 / 0.80 |
0.74 / 0.78 |
0.67 / 0.81 |
0.85 / 0.84 |
0.83 / 0.83 |
0.80 / 0.81 |
0.82 / 0.81 |
|
|
=
iris |
0.99 / 0.99 |
0.99 / 0.99 |
0.99 / 0.99 |
0.99 / 0.98 |
0.99 / 0.99 |
0.99 / 0.99 |
0.99 / 0.99 |
0.99 / 0.99 |
0.99 / 0.99 |
|
|
newthyroid2 |
0.94 / 0.97 |
0.98 / 0.98 |
0.99 / 0.99 |
0.98 / 0.98 |
0.98 / 0.98 |
0.99 / 0.98 |
0.99 / 0.99 |
0.98 / 0.98 |
0.98 / 0.98 |
|
|
pima |
0.75 / 0.61 |
0.81 / 0.80 |
0.80 / 0.80 |
0.75 / 0.74 |
0.75 / 0.60 |
0.87 / 0.80 |
0.85 / 0.79 |
0.85 / 0.77 |
0.85 / 0.80 |
|
|
vehicle3 |
0.76 / 0.86 |
0.84 / 0.82 |
0.85 / 0.81 |
0.83 / 0.83 |
0.76 / 0.86 |
0.88 / 0.84 |
0.84 / 0.81 |
0.88 / 0.85 |
0.88 / 0.85 |
|
|
MLP |
=
ecoli2 |
0.96 / 0.97 |
0.97 / 0.95 |
0.98 / 0.97 |
0.97 / 0.94 |
0.97 / 0.97 |
0.93 / 0.88 |
0.98 / 0.94 |
0.98 / 0.96 |
0.99 / 0.96 |
|
glass-0-1... |
0.97 / 0.96 |
0.99 / 0.96 |
0.98 / 0.97 |
0.97 / 0.97 |
0.98 / 0.95 |
0.97 / 0.93 |
0.98 / 0.93 |
0.99 / 0.95 |
0.99 / 0.95 |
|
|
=
glass1 |
0.70 / 0.78 |
0.84 / 0.75 |
0.85 / 0.77 |
0.85 / 0.79 |
0.77 / 0.78 |
0.84 / 0.78 |
0.87 / 0.78 |
0.83 / 0.77 |
0.84 / 0.77 |
|
|
iris |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
|
|
=
newthyroid2 |
1.00 / 0.99 |
1.00 / 0.99 |
1.00 / 0.99 |
1.00 / 0.99 |
1.00 / 0.99 |
1.00 / 0.99 |
1.00 / 0.97 |
1.00 / 0.99 |
1.00 / 0.99 |
|
|
pima |
0.80 / 0.63 |
0.84 / 0.78 |
0.83 / 0.76 |
0.80 / 0.76 |
0.82 / 0.66 |
0.90 / 0.79 |
0.86 / 0.77 |
0.89 / 0.82 |
0.89 / 0.81 |
|
|
=
vehicle3 |
0.89 / 0.90 |
0.94 / 0.88 |
0.94 / 0.87 |
0.93 / 0.87 |
0.89 / 0.90 |
0.91 / 0.83 |
0.91 / 0.82 |
0.95 / 0.88 |
0.94 / 0.88 |
|
|
KNN |
ecoli2 |
0.91 / 0.96<= o:p> |
0.96 / 0.96<= o:p> |
0.9=
8 / 0.96<= o:p> |
0.94 / 0.94<= o:p> |
0.94 / 0.97<= o:p> |
0.87 / 0.88<= o:p> |
0.94 / 0.94<= o:p> |
0.98=
/ 0.97 |
0.97 / 0.97 |
|
=
glass-0-1... |
=
0.92
/ 0.96 |
=
0.97
/ 0.97 |
0.98=
/ 0.98<= o:p> |
0.98=
/ 0.98<= o:p> |
=
0.96
/ =
0.97 |
=
0.93
/ 0.93 |
=
0.96
/ 0.96 |
0.98=
/
0.96 |
=
0.96
/ 0.96 |
|
|
glass1 |
0.81 / 0.87<= o:p> |
0.88=
/
0.87 |
0.88=
/ 0.87<= o:p> |
0.88=
/ 0.88<= o:p> |
0.80 / 0.85<= o:p> |
0.82 / 0.83<= o:p> |
0.83 / 0.83<= o:p> |
0.88=
/
0.84 |
0.84 / 0.84=
|
|
|
=
iris |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00<= o:p> |
1.00 / 1.00<= o:p> |
1.00 / 1.00<= o:p> |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
|
|
newthyroid2 |
0.98 / 0.99 |
0.99/ 0.99<= o:p> |
0.99 / 0.99<= o:p> |
0.99 / 0.99<= o:p> |
0.99 / 0.99<= o:p> |
0.99 / =
0.99 |
0.96 / 0.96<= o:p> |
1.00=
/ 0.99 |
0.99 / 0.99 |
|
|
pima |
=
0.66
/ 0.55 |
=
0.81
/ 0.82 |
=
0.80
/ =
0.81 |
=
0.80
/ =
0.81 |
=
0.67
/ =
0.56 |
=
0.76
/ 0.76 |
=
0.73
/ 0.71 |
0.82=
/
0.77 |
=
0.77
/ 0.77 |
|
|
vehicle3 |
0.66 / 0.84<= o:p> |
0.87 / 0.85 |
0.87 / 0.85<= o:p> |
0.85 / 0.83<= o:p> |
0.66 / 0.84<= o:p> |
0.79 / 0.80<= o:p> |
0.73 / 0.76<= o:p> |
0.88=
/
0.83 |
0.83 / 0.83=
|
|
|
Random Forest |
=
ecoli2 |
=
0.97
/ 0.98 |
0.99=
/
0.97 |
0.99=
/ =
0.97 |
0.99=
/ =
0.96 |
=
0.98
/ =
0.98 |
=
0.97
/ 0.92 |
0.99=
/
0.97 |
0.99=
/
0.97 |
0.99 /
0.97 |
|
glass-0-1... |
0.99 / 0.95<= o:p> |
0.99 / 0.96<= o:p> |
1.00 / 0.96 |
1.00 / 0.97 |
0.99 / 0.96<= o:p> |
0.99 / 0.95<= o:p> |
0.99 / 0.96<= o:p> |
0.99 / 0.96=
|
0.99 / 0.96=
|
|
|
=
glass1 |
=
0.90
/ 0.90 |
0.95=
/ 0.90 |
0.95=
/ =
0.88 |
0.95=
/ =
0.89 |
=
0.91
/ =
0.89 |
=
0.93
/ 0.88 |
=
0.93
/ 0.86 |
=
0.94
/ 0.89 |
=
0.94
/ 0.87 |
|
|
iris |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00<= o:p> |
1.00 / 1.00<= o:p> |
1.00 / 1.00<= o:p> |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
|
|
=
newthyroid2 |
1.00 / =
0.98 |
1.00 / =
0.99 |
1.00 / 1.00<= o:p> |
1.00 / =
0.99 |
1.00 / =
0.99 |
1.00 / =
0.99 |
1.00 / =
0.98 |
1.00 / =
0.99 |
1.00 / =
0.99 |
|
|
pima |
0.82 / 0.63<= o:p> |
0.90 / 0.84 |
0.89 / 0.83<= o:p> |
0.88 / 0.81<= o:p> |
0.83 / 0.63<= o:p> |
0.91=
/
0.81 |
0.90 / 0.81<= o:p> |
0.91=
/
0.81 |
0.91=
/
0.82 |
|
|
=
vehicle3 |
=
0.87
/ 0.87 |
0.96=
/ 0.88 |
0.96=
/ =
0.87 |
0.96=
/ 0.88<= o:p> |
=
0.87
/ =
0.87 |
0.96=
/
0.86 |
=
0.94
/ 0.86 |
0.96=
/
0.87 |
0.96=
/
0.87 |
|
|
SVM |
ecoli2 |
0.50 / 0.92<= o:p> |
0.90 / 0.90<= o:p> |
0.88 / 0.86<= o:p> |
0.83 / 0.83<= o:p> |
0.78 / 0.94<= o:p> |
0.68 / 0.52<= o:p> |
0.91 / 0.91<= o:p> |
0.94=
/
0.93 |
0.94=
/
0.93 |
|
=
glass-0-1... |
=
0.93
/ 0.96 |
=
0.96
/ 0.96 |
=
0.96
/ 0.96<= o:p> |
=
0.94
/ =
0.94 |
=
0.95
/ 0.96<= o:p> |
=
0.95
/ 0.95 |
0.97=
/ 0.96 |
=
0.96
/ 0.96 |
=
0.96
/ 0.96 |
|
|
glass1 |
0.71 / 0.83 |
0.74 / 0.70<= o:p> |
0.74 / 0.66<= o:p> |
0.73 / 0.68<= o:p> |
0.73 / 0.83<= o:p> |
0.81=
/
0.82 |
0.75 / 0.73<= o:p> |
0.71 / 0.64=
|
0.70 / 0.62=
|
|
|
=
iris |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00<= o:p> |
1.00 / 1.00<= o:p> |
1.00 / 1.00<= o:p> |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
1.00 / 1.00 |
|
|
newthyroid2 |
0.65 / 0.94<= o:p> |
0.98=
/ 0.98 |
0.97 / 0.97<= o:p> |
0.96 / 0.96<= o:p> |
0.97 / 0.98<= o:p> |
0.90 / 0.88<= o:p> |
0.90 / 0.88<= o:p> |
0.94 / 0.94=
|
0.94 / 0.95=
|
|
|
pima |
=
0.50
/ - |
=
0.70
/ 0.56 |
=
0.69
/ =
0.55 |
=
0.65
/ =
0.46 |
=
0.50
/ =
0.07 |
=
0.54
/ 0.68 |
=
0.54
/ 0.68 |
0.73=
/
0.63 |
=
0.65
/ 0.45 |
|
|
vehicle3 |
0.50 / 0.86 |
0.77=
/
0.82 |
0.77=
/ 0.82<= o:p> |
0.76 / 0.81<= o:p> |
0.50 / 0.86<= o:p> |
0.54 / 0.16<= o:p> |
0.54 / 0.16<= o:p> |
0.83 / 0.86 |
0.79 / 0.83=
|
Validación estadística de los
resultados
Para validar rigurosamente los resultados experimentales expuestos e=
n la
sección anterior, se aplicaron pruebas estadísticas no paramétricas,
recomendadas para la evaluación de algoritmos de Machine Learning
sobre múltiples conjuntos de datos. Se utilizó el test<=
/span>
de Friedman para establecer un ranking de rendimiento y el
test post-hoc de Holm (
Tab=
la
3. Resumen de la validación estadística (Test de Friedman y Holm, =
span>
). Se indica el algoritmo con
mejor ranking y aquellos superados significativamente.
|
Clasificador |
Métrica= <= o:p> |
Algori=
tmo
de Control (1er Lugar) |
Algori= tmos superados significativamente (Rechazados por Holm)<= o:p> |
|
C4.5 |
AUC |
SMOTE-COV-LW (FR)<=
/span> |
Original |
|
F1-Score |
SMOTE-EN* |
Ninguno (Todos son estadísticamente equivalen=
tes) |
|
|
MLP |
AUC |
SMOTE-RL* |
Original, SMOTE-RS=
B,
COV-LW (IR), COV-LW (FR) |
|
F1-Score |
Borderline-SMOTE=
span> |
COV-LW (IR)=
|
|
|
KNN |
AUC |
SMOTE-EN* |
Original |
|
F1-Score |
Original |
Ninguno (Todos son estadísticamente equivalen=
tes) |
|
|
Random F. |
AUC |
Borderline-SMOTE=
span> |
Ninguno (Todos son estadísticamente equivalen=
tes) |
|
F1-Score |
SMOTE |
Ninguno (Todos son estadísticamente equivalen=
tes) |
|
|
SVM |
AUC |
SMOTE |
Original |
|
F1-Score |
SMOTE-RSB |
Ninguno (Todos son estadísticamente equivalen=
tes) |
La
validación estadística confirma que el enfoque probabilístico propuesto es
altamente competitivo frente al estado del arte. Destaca el desempeño de
SMOTE-COV-LW (Fuera de Rango) con el clasificador C4.5, posicionándose como=
el
mejor método global en la métrica AUC.
En =
la
mayoría de los escenarios (Random Forest, KNN y SVM), las pruebas de Holm
demostraron equivalencia estadística entre la generación por matriz de
covarianza y los algoritmos clásicos basados en k-vecinos. Este hallazgo es
positivo, ya que valida una metodología que evita las limitaciones geométri=
cas
tradicionales. Las únicas excepciones fueron los perceptrones multicapa (ML=
P),
donde los métodos clásicos mantuvieron una ligera superioridad.
Bal=
ance
AI: Un sistema de balanceo y clasificación
Como
respuesta a la necesidad de accesibilidad para investigadores no
especializados, se desarrolló BalanceAI, una
herramienta portable basada en Python y PyQt6. A diferencia de bibliotecas =
que
requieren conocimientos de programación, este sistema centraliza el flujo de
trabajo —desde la detección del desbalance hasta la evaluación con cinco
clasificadores (C4.5, MLP, KNN, Random Forest y SVM)— en una interfaz gráfi=
ca
intuitiva. Su factor diferenciador es la integración nativa de los algoritm=
os
propuestos: SMOTE-COV-LW, SMOTE-RL y SMOTE-EN.
La
arquitectura del sistema (Figura 1) es modular y escalable, organizada en
cuatro componentes principales:
·
DatasetManageme=
nt: Carga, valida=
ción
estadística y exportación de datos (.csv, .arff).
·
Balancing: Ejecución de
algoritmos de sobremuestreo y visualización de
distribuciones.
·
Classification<=
/span>: Entrenamiento=
de
modelos y cálculo de métricas (AUC y F1-Score).
·
AlgorithmSelect=
ion: Configuración
dinámica de parámetros de balanceo y clasificación.

Fig=
ura
1. Diagrama de subsistemas.
La interfaz gráfica del usuario (GUI) fue diseñada priorizando la
usabilidad. La Figura 2 muestra los entornos principales de trabajo, donde =
el
usuario puede interactuar con los módulos descritos de manera fluida, desde=
la
configuración del balanceo hasta el análisis visual de los resultados de
clasificación.

Figura 2. Interfaces principales del sistema BalanceAI (A: Configuración y Balanceo; B: Evaluación=
y
Resultados).
CONCLUSIONES
La presente investigación abordó el desafío del desbalance de clases=
en
tareas de clasificación binaria mediante una estrategia dual que combina la
innovación algorítmica con el desarrollo de software aplicado. A partir de =
los
resultados obtenidos, se derivan las siguientes conclusiones:
El desarrollo y la evaluación de los algoritmos SMOTE-COV-LW, SMOTE-=
RL y
SMOTE-EN demostraron que la utilización de Modelos Gráficos Gaussianos,
matrices de covarianza y técnicas de regularización (Lasso y Elastic Net) permite generar instancias sintéticas de=
mayor
calidad semántica. Las rigurosas pruebas estadísticas no paramétricas (Frie=
dman
y Holm) confirmaron que estos enfoques propuestos superan o compiten de man=
era
estadísticamente significativa con los métodos clásicos de sobremuestreo,
mejorando métricas clave como el AUC y el F1-Score en diversos clasificador=
es.
La materialización de estos modelos matemáticos en la herramienta
informática BalanceAI representa un aporte prác=
tico
significativo para la comunidad académica. El sistema logra democratizar el
acceso a técnicas avanzadas de inteligencia artificial, ofreciendo a
investigadores y estudiantes una plataforma modular, portable y de fácil us=
o que
no requiere conocimientos avanzados de programación para ejecutar flujos
complejos de balanceo y evaluación.
Como líneas de continuidad para esta investigación, se proyecta la
evaluación de los algoritmos probabilísticos propuestos en conjuntos de dat=
os
multiclase y en espacios de alta dimensionalidad (como el procesamiento de
lenguaje natural). Asimismo, desde el punto de vista del software, se planea
dotar a BalanceAI de una arquitectura basada en=
plugins que permita la integración colaborativa de nu=
evos
métodos de preprocesamiento y modelos de aprendizaje profundo (Deep Learning).
AGRADECIMIENTOS
Deseamos expresar nuestro más sincero agradecimiento al Programa
Nacional de Ciencia y Tecnología PN223LH004: Automática, Robótica e
Inteligencia Artificial, del Ministerio de Ciencia, Tecnología y Medio Ambi=
ente
de Cuba, por el apoyo brindado a este trabajo en el marco del proyecto
PN223LH004-038: Contribuciones teóricas a la IA en la gestión de problemas =
de
datos complejos.
REFERENCIAS
Alghamdi, M., Alghamdi, M., & Al-Barakati, A. (2022). A systematic review= on oversampling techniques for imbalanced data classification= span>. IEEE Access, *10*, 12458-12478.<= o:p>
Algamal, Z. Y., & Lee, M. H. (2019). A new adaptive elastic net for
high-dimensional data. Journal of Statistical Computation and Simulation,
*89*(9), 1689-1702.
Bodnar, T., Okhrin, Y., & Parolya, N. (2021). Optimal shrinkage covariance matr=
ix
estimation in high-dimensional problems. Journal of Multivariate Analysis,
*185*, Article 104767. https://doi.org/10.1016/j.jmva.2021.104767
Chawla, N. V., Bowyer, K. W., Hall, L. O., & Kegelmeyer,
W. P. (2002). SMOTE: Synthetic minority over-sampling technique. Journal of
Artificial Intelligence Research, *16*, 321-357.
Chawla, N. V., Lazarevic, A., Hall, L. O., & Bowyer, K. W. (2003=
). SMOTEBoost: Improving prediction of the minority clas=
s in
boosting. In Proceedings of the 7th European Conference on Principles and
Practice of Knowledge Discovery in Databases (pp. 107-119). <=
span
class=3D01CuerpoESP03TEXTOS>Springer.
Das, S., Datta, S., & Chaudhuri, B. B. (2023). Handling class overlap and imbalance to de=
tect
rare events. Pattern Recognition, *133*, Article
109018.
Fernández, A., García, S., del Jesus, M.=
J.,
& Herrera, F. (2008). <=
span
lang=3DEN-US style=3D'font-size:11.0pt;font-family:"Calibri",sans-serif;mso=
-ascii-theme-font:
minor-latin;mso-hansi-theme-font:minor-latin;mso-bidi-theme-font:minor-lati=
n;
color:#3B3838;mso-themecolor:background2;mso-themeshade:64;mso-ansi-languag=
e:
EN-US'>A study of the behaviour of linguistic f=
uzzy rule-based
classification systems in the framework of imbalanced data sets. Fuzzy Sets=
and
Systems, 159(18), 2378-2398.
Fernández, A., García, S., Herrera, F., & Chawla, N. V. (2018).
SMOTE for learning from imbalanced data: Progress and challenges, marking t=
he
15-year anniversary. Journal of Artificial Intelligence Research, *61*,
863-905.
Fernández, A., García, S., Galar, M., Prati, R. C., Krawczyk, B., &a=
mp;
Herrera, F. (2018). Learning from imbalanced data sets. Springer.
Google Cloud. (s.f.). ¿Qué es la inteligencia artificial o IA?
Recuperado el 22 de junio de 2025, de
Han, H., Wang, W. Y., & Mao, B. H. (2005). Borderline-SMOTE: A n=
ew
over-sampling method in imbalanced data sets learning. In Advances in
intelligent computing (pp. 878-887). Springer.
Hastie, T., Tibshirani, R., & Wainwr=
ight,
M. (2019). Statistical learning with sparsity: The Lasso and generalization=
s.
CRC Press.
He, H., Bai, Y., Garcia, E. A., & Li, S. (2008). ADASYN: Adaptive synthetic sampl=
ing
approach for imbalanced learning. In 2008 IEEE International Joint Conferen=
ce
on Neural Networks (pp. 1322-1328). IEEE.
Krawczyk, B. (2016). Learning from imbalanced data: Open challenges and future directions.
Progress in Artificial Intelligence, *5*(4), 221-232.
Ledoit, O., & Wolf, M. (2022). The power (non) linear shrinking: A rev=
iew
and guide to covariance matrix estimation. Journal of Multivariate Analysis,
*188*, Article 104844. https://doi.org/10.1016/j.jmva.2021.104844
López, V., Fernández, A., García, S., Palade, V., & Herrera, F.
(2013). An insight into classification with imbalanced data: Empirical resu=
lts
and current trends on using data intrinsic characteristics. Information
Sciences, *250*, 113-141.
Lu, Y., & Yin, Y. (2022). Applying logistic lasso regression for=
the
diagnosis of atypical Crohn's disease. Computers in Biology and Medicine,
*141*, Article 105151. https://doi.org/10.1016/j.compbiomed.2021.105151
Madera, J. (2008). Algoritmos evolutivos con estimación de
distribuciones basados en pruebas de independencia.
Murphy, K. P. (2022). Probabilistic machine learning: An introductio=
n. MIT Press.
Ramentol, E., Caballero, Y., Bello, R., & Herrera, F. (2012a). SMOTE-RSB=
*: A
hybrid preprocessing approach based on oversampling and undersampling
for high imbalanced data-sets using rough set th=
eory.
Knowledge and Information Systems, *33*(2), 245-265.
Richardson Ibáñez, J. (2017). Algoritmos evolutivos estimadores de
distribución celulares para problemas de optimización continuos.
Soofi, A. A., & Awan, A. (2017). Classification techniques in
machine learning: Applications and issues. Journal of Basic & Applied
Sciences, *13*, 459-465.
Tibshirani
Zhang, C., Zhang, Y., & Zhang, Y. (2021). A survey on artificial
intelligence for medical diagnosis. Artificial Intelligence Review, *54*(5),
3597-3645.
Zou, H., & Hastie, T. (2005). Regularization and variable select=
ion
via the elastic net. Journal of the Royal Statistical Society: Series B
(Statistical Methodology), *67*(2), 301-320.
|
C=
opyright
© 2026, Autores: Leguen de Varona, Ireimis de=
las
Mercedes, Madera Quintana, Julio César, S=
imón
Cuevas, Alfredo, Rodríguez Guerra, Marcos Antonio |
|
<= o:p> |
|
|
|
E=
sta
obra está bajo una licencia de Creative Commons Atribución-No Comercial 4=
.0
Internacional |