Clasificación de las competencias
El aprendizaje automático es una técnica de IA que enseña a los ordenadores a aprender de la experiencia. Los algoritmos de aprendizaje automático utilizan métodos computacionales para “aprender” información directamente de los datos sin depender de una ecuación predeterminada como modelo. Los algoritmos mejoran adaptativamente su rendimiento a medida que aumenta el número de muestras disponibles para el aprendizaje. El aprendizaje profundo es una forma especializada de aprendizaje automático.
El aprendizaje automático utiliza dos tipos de técnicas: el aprendizaje supervisado, que entrena un modelo con datos de entrada y salida conocidos para que pueda predecir resultados futuros, y el aprendizaje no supervisado, que encuentra patrones ocultos o estructuras intrínsecas en los datos de entrada.
El aprendizaje automático supervisado construye un modelo que hace predicciones basadas en la evidencia en presencia de la incertidumbre. Un algoritmo de aprendizaje supervisado toma un conjunto conocido de datos de entrada y respuestas conocidas a los datos (salida) y entrena un modelo para generar predicciones razonables para la respuesta a nuevos datos. Utilice el aprendizaje supervisado si tiene datos conocidos para el resultado que intenta predecir.
Clasificación de los datos de investigación
donde x e y son dos ejemplos de la clase positiva, y la distancia euclidiana, dist (x, y) se utiliza como función de distancia. Datta también experimentó con otra modificación similar que implica el aprendizaje de un vector
donde Aj = νi es el valor del atributo para el ejemplo x y p(Aj = νi) es la probabilidad del valor ith del atributo. Las probabilidades de los distintos valores del atributo Aj se normalizan por la probabilidad del más frecuente ν. Durante la clasificación, si para el ejemplo de prueba
entonces el ejemplo de prueba se predice como miembro de la clase positiva. Datta prueba los algoritmos de clase positiva anteriores en varios conjuntos de datos tomados del repositorio de la UCI y concluye que NNPC (discutido en la sección anterior) y NBPC tienen una precisión de clasificación (tanto valores de precisión como de recuerdo) cercana al valor de C4.5, aunque los árboles de decisión de C4.5 se aprenden a partir de todas las clases, mientras que cada uno de los clasificadores de una clase se aprende utilizando sólo una clase. Wang y Stolfo (Referencia Wang y Stolfo2003) utilizan un método simple de NB de una clase que utiliza sólo muestras positivas, para la detección de mascaradas en una red. La idea es generar un perfil de usuario (u) utilizando comandos UNIX (c) y calcular la probabilidad condicional
Métodos de investigación
Resumen = “Los recientes avances en el aprendizaje automático han introducido modelos que se acercan al rendimiento humano a costa de una mayor complejidad arquitectónica. Los esfuerzos por hacer transparentes los razonamientos que subyacen a las predicciones de los modelos{‘} han inspirado una gran cantidad de nuevas técnicas de explicabilidad. Si se dispone de un modelo ya entrenado, se calculan las puntuaciones de saliencia de las palabras de una instancia de entrada. Sin embargo, no existe una guía definitiva sobre (i) cómo elegir una técnica de este tipo dada una tarea de aplicación y una arquitectura de modelo concretas, y (ii) las ventajas e inconvenientes de utilizar cada una de estas técnicas. En este artículo, desarrollamos una lista exhaustiva de propiedades de diagnóstico para evaluar las técnicas de explicabilidad existentes. A continuación, empleamos la lista propuesta para comparar un conjunto de diversas técnicas de explicabilidad en tareas de clasificación de textos y arquitecturas de redes neuronales. También comparamos las puntuaciones de saliencia asignadas por las técnicas de explicabilidad con las anotaciones humanas de las regiones de entrada salientes para encontrar relaciones entre el rendimiento de un modelo y la concordancia de sus justificaciones con las humanas. En general, descubrimos que las explicaciones basadas en el gradiente son las que mejor funcionan en todas las tareas y arquitecturas de los modelos, y presentamos más información sobre las propiedades de las técnicas de explicabilidad revisadas”,
Clasificación de los tipos de estudiantes
La evaluación del aceite de oliva implica el uso de un análisis sensorial estandarizado según el método del “panel test”. Sin embargo, existe un importante interés por diseñar estrategias novedosas basadas en el uso de la Cromatografía de Gases (GC) acoplada a la espectrometría de masas (MS), o a la espectrometría de movilidad iónica (IMS) junto con un tratamiento quimiométrico de los datos para la clasificación del aceite de oliva. Se trata de una tarea imprescindible para intentar conseguir el modelo más robusto a lo largo del tiempo y, tanto para evitar el fraude en el precio como para saber si es apto para el consumo o no. El objetivo de este trabajo es combinar técnicas químicas y enfoques de Deep Learning para clasificar automáticamente muestras de aceite de oliva de dos cosechas diferentes en sus tres clases correspondientes: aceite de oliva virgen extra (AOVE), aceite de oliva virgen (AOV) y aceite de oliva lampante (AOL). Nuestro modelo de Deep Learning está construido con 701 muestras, que se obtuvieron de dos campañas de aceite de oliva (2014-2015 y 2015-2016). Los datos de las dos cosechas se construyen a partir de la selección de marcadores específicos de aceite de oliva de toda la huella espectral obtenida con el método GC-IMS. Para obtener los mejores resultados hemos configurado los parámetros de nuestro modelo en función de la naturaleza de los datos. Los resultados obtenidos muestran que un enfoque de aprendizaje profundo aplicado a los datos obtenidos a partir de técnicas químicas instrumentales es un buen método a la hora de clasificar las muestras de aceite en sus correspondientes categorías, con tasas de éxito superiores a las obtenidas en trabajos anteriores.