Machine Learning – Conceptos básicos y definición explicados para principiantes y directivos

Explicamos los fundamentos del aprendizaje automático y por qué es tan importante.

¿Es realmente nuevo el aprendizaje automático?

El aprendizaje automático (Machine Learning en adelante ML) es una subdisciplina de la inteligencia artificial y ha sido objeto de investigación durante más de 50 años. Por lo tanto, el ML no es nuevo. Sin embargo, cayó en el olvido bastante rápido después de su «descubrimiento» porque la desilusión se extendió rápidamente después de los éxitos iniciales. Simplemente no se pudieron encontrar las aplicaciones adecuadas y no se disponía de datos en la cantidad y calidad necesarias.

Si el Machine Learning no es nuevo, ¿por qué se está exagerando?

Por supuesto, los algoritmos de ML se han mejorado mucho en los últimos 50 años. Sin embargo, esta no es la razón principal de la tendencia a poner en práctica estos algoritmos ahora.

Debido al rápido aumento de la capacidad de computación (y para todos los disponibles), ahora es económicamente viable proporcionar las enormes capacidades de computación requeridas para ello. Gracias a las tarjetas gráficas rápidas, los servidores están ahora disponibles por sólo unos pocos euros por hora, lo que hace unos pocos años habría estado en lo más alto de la lista de superordenadores (y por lo tanto inasequible).

Paralelamente, la cantidad de datos disponibles también ha crecido, tanto en los datos propios de la empresa como en los públicos. Esto proporciona una excelente base para trazar un mapa de los casos de uso realmente significativos y útiles para las empresas. Entre ellas figuran, por ejemplo, el mantenimiento predictivo (es decir, la estimación del tiempo de fallo), el reconocimiento de textos hablados y las previsiones de precios.

Aunque actualmente se está desarrollando un bombo publicitario a partir de esto, que sin duda será seguido (de nuevo) por una gran desilusión, muchos modelos de negocio pueden beneficiarse de ello o incluso desarrollarse estratégicamente más.

Comprender el aprendizaje de la máquina más allá de las hipótesis

¿Qué es un algoritmo?

Un algoritmo para computadoras puede ser pensado como una receta. Describe exactamente qué pasos se realizan uno tras otro. Los ordenadores no entienden las recetas de cocina, sino los lenguajes de programación: En ellos, el algoritmo se descompone en pasos formales (comandos) que el ordenador puede entender.

Algunos problemas pueden formularse fácilmente como un algoritmo, por ejemplo, contando del 1 al 100 o comprobando si un número es un número primo. Para otros problemas, esto es muy difícil, por ejemplo, reconocer la escritura o el texto de las teclas. Aquí los procedimientos de aprendizaje de la máquina ayudan. Durante mucho tiempo se han desarrollado algoritmos que permiten analizar los datos existentes y aplicar los conocimientos derivados de ello a los nuevos datos.

¿Por qué algunos algoritmos se llaman «aprendizaje»?

El algoritmo de aprendizaje de una máquina tiene mucha libertad, los llamados parámetros. Simplificando, se podría utilizar un parámetro, por ejemplo, para poner los mensajes con la palabra «Trump» en un contexto geográfico en relación con la región de América del Norte. Típicamente, los algoritmos de ML utilizan muchos cientos, a menudo hasta cientos de miles de parámetros. El ajuste de los parámetros para obtener los resultados correctos para los datos existentes se llama aprendizaje.

Aprendizaje supervisado – ¿Qué es el?

Para el llamado «aprendizaje supervisado» se requieren datos conocidos que ya contienen la lógica que se quiere aplicar a un nuevo conjunto de datos.

A partir de estos datos se selecciona un conjunto de datos de entrenamiento y pruebas. El primero se utiliza para establecer los parámetros del algoritmo en consecuencia, mientras que el segundo se utiliza para evaluar el rendimiento del algoritmo. Aquí también puedes calcular métricas de calidad y terminar el proceso de entrenamiento si los resultados se consideran suficientemente buenos (¡esto puede llevar mucho tiempo o no suceder en absoluto!).

El algoritmo aprende la lógica dentro de este llamado conjunto de entrenamiento. Un algoritmo entrenado de esta manera puede entonces clasificar los datos que tienen cierta similitud con el conjunto de entrenamiento con la lógica aprendida – por ejemplo, basado en las categorías predefinidas Producto Comprado/No Comprado o Cancelación/Sin Cancelación.

Hay que tener mucho cuidado con algunos pasos: Por ejemplo, cuando el algoritmo se practica con un juego de entrenamiento, no debe simplemente aprender todo «de memoria», sino que debe entender la lógica que hay detrás. Si no logras hacer esto, el problema que enfrentas se llama «Outfitting».

Aprendizaje no supervisado – ¿Qué es el?

El aprendizaje no supervisado es adecuado para el aprendizaje supervisado si no se dispone de datos conocidos y estructurados lógicamente para la práctica. Los algoritmos que utilizan el aprendizaje no supervisado pueden, por ejemplo, estructurar una base de datos de clientes según los diferentes grupos de clientes (segmentación de clientes). Hay algoritmos que deciden por sí mismos cuántos de esos cúmulos forman y algoritmos que se les da el número de cúmulos.

Después de este tipo de aprendizaje de la máquina, el trabajo manual sigue de nuevo y la creatividad humana es necesaria para interpretar el resultado: Porque los grupos encontrados ahora tienen que ser interpretados profesionalmente. Esto se debe a que el algoritmo no proporciona ninguna explicación de por qué estos cúmulos fueron creados de esta manera.

Otra posibilidad de aprendizaje no supervisado es la llamada reducción dimensional. Esto puede utilizarse para averiguar las llamadas características de un conjunto de datos existentes, es decir, los componentes en los que los datos difieren realmente. Un ejemplo de esto podría ser la descripción de las prendas de vestir, el color sería entonces extraído como una característica.

Reinforcement Learning – ¿Qué es el?

El aprendizaje de refuerzo es actualmente un tipo de aprendizaje menos importante en la economía, y es también un procedimiento supervisado. La idea aquí es recompensar (y así promover) el comportamiento exitoso, mientras se suprime el comportamiento que ha llevado a resultados indeseables.

Por ejemplo, si se quisiera entrenar un algoritmo para jugar por dinero en diez bandidos de un solo brazo (que funcionan de manera diferente «bien»), primero se les haría jugar cinco veces en cada máquina y luego más a menudo en las máquinas que produjeron las mayores ganancias en el primer ensayo. El algoritmo también puede jugar un poco en las máquinas que produjeron pocas o ninguna ganancia, porque esto podría haber sido una coincidencia desfavorable (e improbable) en los primeros cinco intentos, y en realidad estas son las mejores máquinas.

¿Cuántos algoritmos que pueden aprender hay?

Hay una multitud de métodos de aprendizaje diferentes, sólo las máquinas de vectores de apoyo y los árboles de decisión como representantes del aprendizaje supervisado deben ser mencionados aquí.

Para cada uno de estos métodos, existen diferentes algoritmos para ajustar los parámetros con el fin de lograr el mayor acuerdo posible con los datos conocidos. Estos algoritmos son los procedimientos de aprendizaje reales en el aprendizaje de la máquina. Ejemplos de ello son el descenso de gradiente, la retropropagación y los algoritmos genéticos.

Dependiendo del propósito de la aplicación, se encuentra que ciertos algoritmos funcionan mejor o menos bien. Esto también puede ser influenciado por los datos. Algunas aplicaciones especiales incluso requieren modificaciones en los propios algoritmos. En muchos casos, se pueden obtener muy buenos resultados con algoritmos estándar. Sin embargo, en casos individuales, puede ser necesario modificar un algoritmo o desarrollar uno propio.

El aprendizaje de la máquina sigue significando en primer lugar: el trabajo manual

Por muy automatizado que suene, los procesos de aprendizaje de la máquina todavía incluyen muchos pasos de proceso manuales: Por ejemplo, los datos conocidos no suelen estar disponibles en la calidad que realmente se necesita. Por esta razón, los datos deben ser normalmente limpiados en el primer paso, en el marco de la llamada limpieza de datos.

El Machine Learning es un método estadístico

Los tres tipos de aprendizaje de la máquina son procedimientos estadísticos, lo que significa que sólo un alto número de repeticiones conduce a buenos resultados. Las computadoras pueden hacer este «estúpido» trabajo muy bien, y debido al gran aumento de la capacidad de computación no tenemos que esperar mucho tiempo para los resultados.

Detrás de un exitoso proyecto de aprendizaje de máquinas siempre hay un equipo interdisciplinario

El Machine Learning hace que los productos y servicios sean más fáciles de usar, los procesos más eficientes y las previsiones más fiables. Si la dirección define el uso del aprendizaje automático como parte de la estrategia corporativa, el aprendizaje automático -combinado con los datos adecuados- tiene el poder de revolucionar todo el modelo de negocio.

Con este telón de fondo, el actual alboroto que se ha desarrollado en torno a la ML es muy comprensible.

Con todas las posibilidades no hay que olvidar: La ML no es la panacea. El factor decisivo es la calidad de los datos, es decir, el «forraje» del ML: Así pues, «basura que entra – basura que sale» se aplica especialmente al ML. Además, el ML requiere cantidades muy grandes de datos, que no siempre están disponibles.

Los resultados producidos por el algoritmo de ML sólo son tan buenos como las personas que han adquirido y preparado cantidades adecuadas de datos con preguntas relevantes para la empresa en su cabeza y han ajustado repetidamente los parámetros del algoritmo hasta obtener un resultado técnicamente interpretable.

En muchos casos no es la tecnología la que establece los límites del ML, sino la creatividad de la gente. Es esencial encontrar el caso de uso apropiado para la empresa y luego diseñar de manera iterativa, utilizando todo el conocimiento de dominio existente que sus propios empleados ponen sobre la mesa. Los métodos de innovación centrados en el cliente, como el pensamiento de diseño y los enfoques de prototipos ajustados, contribuyen de manera importante a ello, también mediante la detección temprana de los fallos.

    Stephanie Fischer und Dr. Christian Winkler sind Gründer und Geschäftsführer von datanizing, einem in München ansässigen Unternehmen, das für Organisationen Strategien und konkrete Anwendungen mit künstlicher Intelligenz entwickelt, die im eigenen Betrieb nutz- und gewinnbringend eingesetzt werden können. Sie begleiten seit Jahren Unternehmen bei der Konzeption und Implementierung datengetriebener innovativer Lösungen im Bereich Machine Learning, Text Analytics und Big Data.

    Los comentarios están cerrados.

    This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

    MoreThanDigital Newsletter
    Subscribe
    Join the #bethechange community
    close-image