¿Qué son los algoritmos de aprendizaje automático?

El aprendizaje automático es una rama de la informática que se enfoca en otorgarle a la IA la capacidad de aprender tareas.

Gracias al aprendizaje automático, pueden cambiar el mundo del mañana con su ayuda. Leer más Esto incluye desarrollar habilidades sin que los programadores codifiquen explícitamente la IA para hacer estas cosas. En cambio, la IA es capaz de usar datos para enseñarse a sí misma.

Los programadores logran esto a través de algoritmos de aprendizaje automático. Estos algoritmos son los modelos en los que se basa un comportamiento de aprendizaje de IA. Los algoritmos, junto con los conjuntos de datos de entrenamiento, permiten a la IA aprender.

Un algoritmo generalmente proporciona un modelo que una IA puede usar para resolver un problema. Por ejemplo, aprender a identificar imágenes de gatos frente a perros. La IA aplica el modelo establecido por el algoritmo a un conjunto de datos que incluye imágenes de gatos y perros. Con el tiempo, la IA aprenderá cómo identificar gatos de perros de manera más precisa y sencilla, sin aportes humanos.

El aprendizaje automático mejora la tecnología, como los motores de búsqueda, los dispositivos domésticos inteligentes, los servicios en línea y las máquinas autónomas. Es así como Netflix sabe qué películas es más probable que disfruten y cómo los servicios de transmisión de música pueden recomendar listas de reproducción.

7 veces cuando el aprendizaje de la máquina salió mal

1. Errores de resultados de búsqueda de imágenes de Google

La búsqueda de Google ha hecho que navegar por la web sea mucho más fácil. El algoritmo del motor tiene en cuenta una variedad de cosas al generar resultados, como palabras clave y tasa de rebote. Pero el algoritmo también aprende del tráfico de usuarios, lo que puede causar problemas en la calidad de los resultados de búsqueda.

En ninguna parte es esto más evidente que en los resultados de la imagen. Dado que es más probable que las páginas que reciben mucho tráfico muestren sus imágenes, las historias que atraen a un gran número de usuarios, incluido clickbait, a menudo tienen prioridad.

Por ejemplo, los resultados de la búsqueda de imágenes para los campamentos de ocupantes ilegales en Sudáfrica “causaron controversia cuando se descubrió que predominaban los sudafricanos blancos. Esto es a pesar de las estadísticas que muestran que la gran mayoría de las personas que viven en viviendas informales, como las chozas, son sudafricanos negros.

Los factores utilizados en el algoritmo de Google también significan que los usuarios de Internet pueden manipular los resultados. Por ejemplo, una campaña de usuarios influyó en los resultados de la búsqueda de imágenes de Google en la medida en que la búsqueda del término idiota “muestra imágenes del presidente de los EE. UU. Donald Trump.

2. Microsoft Bot se convirtió en un nazi

Confíe en Twitter para corromper un chatbot de aprendizaje automático bien intencionado. Esto es lo que ocurrió un día después del lanzamiento del ahora famoso chatbot Tay de Microsoft.

Tay imitó los patrones de lenguaje de una adolescente y aprendió a través de sus interacciones con otros usuarios de Twitter. Sin embargo, se convirtió en uno de los errores más infames de la IA cuando comenzó a compartir declaraciones nazis e insultos raciales. Resulta que los trolls habían usado el aprendizaje automático de la IA contra él, inundándolo con interacciones cargadas de intolerancia. No mucho después, Microsoft desconectó a Tay para siempre.

3. Problemas de reconocimiento facial de la IA

Reconocimiento facial La IA a menudo aparece en los titulares por razones erróneas, como historias sobre el reconocimiento facial y problemas de privacidad. Pero esta IA también causó grandes preocupaciones al tratar de reconocer a las personas de color.

En 2015, los usuarios descubrieron que Google Photos estaba clasificando a algunos negros como gorilas. En 2018, una investigación realizada por la ACLU que mostró que el software de identificación de Amazon Rekognition identificó a 28 miembros del Congreso de los EE. UU. Como sospechosos de la policía, con falsos positivos que afectan de manera desproporcionada a las personas de color.

Otro incidente involucró el software Face ID de Apple ¿Comprar un iPhone X? ¿La identificación de la cara podría hacerte reconsiderar la compra de un iPhone X? Face ID podría hacerle reconsiderar La característica más notable del iPhone X es el sistema de desbloqueo del dispositivo Face ID. ¿Pero qué tan seguro es? ¿Tendrá Apple acceso a una enorme base de datos de caras de todos? Leer más identifica incorrectamente a dos mujeres chinas diferentes como la misma persona. Como resultado, el colega del propietario del iPhone X podría desbloquear el teléfono.

Mientras tanto, la investigadora del MIT, Joy Buolamwini, recuerda que a menudo necesita usar una máscara blanca mientras trabaja en la tecnología de reconocimiento facial para que el software la reconozca. Para resolver problemas como este, Buolamwini y otros profesionales de TI están llamando la atención sobre el problema y la necesidad de conjuntos de datos más inclusivos para la capacitación en IA.

4. Deepfakes utilizados para engaños

Mientras que las personas han usado Photoshop durante mucho tiempo para crear imágenes de engaño, el aprendizaje automático lleva esto a un nuevo nivel. El software como FaceApp le permite intercambiar los temas de un video a otro.

Pero muchas personas explotan el software para una variedad de usos maliciosos, incluida la superposición de caras de celebridades en videos para adultos o la generación de videos de engaños. Mientras tanto, los usuarios de Internet han ayudado a mejorar la tecnología para que sea cada vez más difícil distinguir videos reales de falsos. Como resultado, esto hace que este tipo de IA sea muy poderoso en términos de difundir noticias falsas y engaños. Facebook ofrece consejos para ayudarle a detectar noticias falsas Facebook ofrece consejos para ayudarlo a detectar noticias falsas Si bien Facebook no produce noticias falsas, al menos En parte responsable de su difusión. Es por eso que ahora ofrece consejos para ayudarte a detectar noticias falsas antes de que se propaguen.

5. El ascenso de los bots de Twitter

Los robots de Twitter se crearon originalmente para automatizar cosas como las respuestas de servicio al cliente para las marcas. Pero la tecnología es ahora una causa importante de preocupación. De hecho, la investigación ha estimado que hasta 48 millones de usuarios en Twitter son en realidad bots de IA.

En lugar de simplemente usar algoritmos para seguir ciertos hashtags o responder a las consultas de los clientes, muchas cuentas de bot intentan imitar a personas reales. Estas “personas” promueven engaños y ayudan a que las noticias falsas se vuelvan virales.

Una ola de robots de Twitter incluso influyó en la opinión pública hasta cierto punto sobre el Brexit y las elecciones presidenciales de 2016 en Estados Unidos. El mismo Twitter admitió que descubrió alrededor de 50,000 bots de fabricación rusa que publicaron sobre las elecciones.

Los bots continúan plagando el servicio, difundiendo desinformación. El problema es tan grande que incluso afecta la valoración de la empresa.

6. Los empleados dicen que Amazon AI decidió contratar hombres es mejor

En octubre de 2018, Reuters informó que Amazon tuvo que desechar una herramienta de reclutamiento de trabajo después de que la IA del software decidiera que los candidatos masculinos eran preferenciales.

Los empleados que deseaban permanecer en el anonimato se presentaron para contarle a Reuters sobre su trabajo en el proyecto. Los desarrolladores querían que la IA identificara a los mejores candidatos para un trabajo en función de sus CV. Sin embargo, las personas involucradas en el proyecto pronto notaron que la IA penalizaba a las candidatas. Explicaron que la IA utilizaba los CV de la última década, la mayoría de los cuales eran de hombres, como su conjunto de datos de entrenamiento.

Como resultado, la IA comenzó a filtrar los CV en función de la palabra clave mujeres “. La palabra clave apareció en el CV en actividades como la capitana del club de ajedrez femenino ”. Mientras que los desarrolladores modificaron la IA para evitar esta penalización de los currículos de las mujeres, Amazon finalmente desechó el proyecto.

7. Contenido inapropiado en YouTube Kids

YouTube Kids tiene muchos videos tontos y caprichosos destinados a entretener a los niños. Pero también tiene un problema de videos spam que manipulan el algoritmo de la plataforma.

Estos videos están basados ​​en etiquetas populares. Dado que los niños pequeños no son espectadores muy exigentes, los videos basura que utilizan estas palabras clave atraen millones de visitas. AI genera automáticamente algunos de estos videos utilizando elementos de animación de stock, basados ​​en etiquetas de tendencias. Incluso cuando los videos están hechos por animadores, sus títulos se generan específicamente para el relleno de palabras clave.