Se aplicó un algoritmo de clustering K-Means para agrupar tramos con características similares y asignarles una puntuación en diversas categorías, incluyendo aspectos ambientales, seguridad, distribución modal, trama urbana, y escena urbana.
Posteriormente, a partir de los puntajes asignados en cada categoría, se calculó una puntuación global de walkability y cyclability para cada tramo de calle utilizando un enfoque similar de clustering.»
- «K-Means es un algoritmo de clustering que fue propuesto por Stuart Lloyd en el año 1957 y tiene como objetivo dividir un conjunto de N datos en K grupos (clusters). Cada grupo está representado por su centroide, que es la media de todos los datos en ese grupo. Durante el proceso de clustering, cada dato se asigna al grupo cuyo centroide está más cercano a él en términos de distancia euclidiana u otra métrica de distancia especificada. El funcionamiento del algoritmo es el siguiente:
- Seleccionar K centroides al azar de los datos como puntos de inicio.
Asignar cada punto de datos a su centroide más cercano. - Calcular la media de los puntos de datos asignados a cada centroide y actualizar la posición de cada centroide.
- Repetir los pasos 2 y 3 hasta que no haya ningún cambio significativo en los centroides o hasta que se alcance un número máximo de iteraciones.
- Cada punto de datos será asignado al cluster al que pertenece su centroide.
Luego, para evaluar y validar los resultados, se aplicaron algoritmos de Machine Learning: Árbol de decisión, XGBoost, Random Forest y Support Vector Machine. Estos modelos ayudaron a entender e interpretar los resultados, permitiendo verificar su coherencia y la fiabilidad del método propuesto.
- Un árbol de decisión es una herramienta de aprendizaje automático que genera un modelo de decisiones basado en valores de características. Estos modelos adoptan la forma de estructuras de árboles, donde cada nodo interno simboliza una condición basada en una característica, cada rama del árbol ilustra un posible resultado de dicha prueba y cada nodo terminal (hoja), representa una clase asignada en base a las condiciones evaluadas a lo largo del camino desde la raíz del árbol.
- XGBoost (Extreme Gradient Boosting) es una técnica de ensamblaje de árboles que combina varios modelos débiles (generalmente árboles de decisión) para crear un modelo más fuerte y preciso. [31] Es un algoritmo reciente considerando que su versión inicial fue en el año 2014. Básicamente, funciona mediante el proceso de boosting, que consiste en entrenar sucesivamente modelos débiles en secuencia, donde cada modelo intenta corregir los errores del modelo anterior. A diferencia del Bagging, donde los modelos son entrenados de forma independiente. De esta manera, el rendimiento del modelo final mejora en cada iteración. Se destaca por su velocidad y rendimiento y se utiliza para problemas de aprendizaje supervisado.

- Random Forest es un algoritmo de aprendizaje supervisado que combina múltiples árboles de decisión para mejorar la precisión y la robustez en la predicción de datos. A diferencia de XGBoost, donde cada árbol de decisión se entrena secuencialmente, en Random Forest se implementa la técnica de Bagging, donde cada árbol se entrena de manera independiente utilizando muestreo aleatorio con reemplazo. Luego, las predicciones de todos los árboles se combinan mediante votación (en clasificación) para obtener una predicción final más confiable y precisa.

- Support Vector Machine es un algoritmo de aprendizaje supervisado utilizado principalmente para tareas de clasificación y regresión. La idea principal detrás de SVM es encontrar un hiperplano que mejor divida un conjunto de datos en clases. En el caso más simple, se puede visualizar esto como un plano en dos dimensiones que separa dos clases de datos. El hiperplano es seleccionado de tal manera que la distancia entre el hiperplano y el punto de datos más cercano de cada clase (conocidos como «Support Vectors») sea la máxima posible. Esta distancia se denomina «margen» y SVM busca maximizar este margen.

Deja una respuesta