Materiales y métodos
Para realizar las pruebas utilizaron conjuntos de datos provenientes de la Universidad de California (UCI) . En el cuadro se muestran más detalles de los mismos:

Tomaron conjuntos de datos con atributos de decisión para poder correr los algoritmos excluyendo este atributo y luego comparar los resultados obtenidos con lo que originalmente indicaba dichos atributos. Además, el tener conjuntos de datos para los cuales se conoce el atributo de decisión, permite determinar el número de grupos del algoritmo k-means.
Resultados
Como se aprecia en el cuadro, “k-means clásico – aleatorio – mejor caso” supera a los otros esquemas en su tasa de éxito para Credit Approval (alcanza un 63,80%), para Car Evaluation (obtiene un 41,92%) y para Skin Segmentation (con un 60,61%); solo para el conjunto de datos Chess, el valor obtenido 54,78%, es inferior a cuando se usa ganancia de información (59,73%) y cuando se utilizan conjuntos aproximados (55,48%).

CONCLUSIóN
Un aspecto que se podría argumentar es que el cálculo de la entropía, la ganancia de información y los conjuntos aproximados requiere un esfuerzo computacional previo al cálculo del k-means, que el método clásico (sin reducir atributos) se ahorra. Pero ante este argumento hay dos aspectos muy importantes, el primero es que si se cuenta con muchos atributos, la reducción de atributos recuperará el tiempo invertido al calcular el k-means con mucho menos atributos; y el segundo es que se sabe que la reducción de atributos colabora en la reducción del sobreajuste en caso de presentarse
Referencia:
Calvo Valverde, Luis Alexander. (26/09/2015). Estrategia basada en el aprendizaje de máquina para tratar con conjuntos de datos no etiquetados usando conjuntos aproximados y/o ganancia de información . Tecnología en Marcha. Edición especial. Matemática Aplicada.