Microsoft continúa su búsqueda para traer la máquina aprendiendo a cada aplicación

Microsoft continúa su búsqueda para llevar el aprendizaje automático a cada aplicaciónAgrandar

SEATTLE: hemos estado siguiendo el trabajo de Microsoft para llevar su plataforma de aprendizaje automático para más desarrolladores y más aplicaciones en los últimos años Lo que comenzó como estrechamente enfocado, Los servicios especializados se han convertido en una gama más amplia de características que son más capaces y más flexibles, a la vez que más accesible a desarrolladores que no son expertos en el campo de aprendizaje automático.

Este año no es diferente. La familia principal de API cubre el mismo terreno que ha tenido por un tiempo: reconocimiento de idioma, traducción y reconocimiento de imagen y video, con Microsoft tomando pasos para hacer que los servicios sean más capaces y fáciles de integrar en aplicaciones.

El enfoque de la compañía este año está en dos áreas principales: personalización y despliegue de borde. Todo el aprendizaje automático Los servicios operan en términos generales de la misma manera, con dos fases distintas. La primera fase es construir un modelo: un conjunto de datos de prueba (para ejemplo, texto en un idioma y su traducción a otro lenguaje o fotos de animales junto con información sobre qué animal que son) se utiliza para entrenar redes neuronales para construir el modelo. La segunda fase es usar el modelo: nuevos datos (por ejemplo, texto no traducido o una imagen de un animal desconocido) se alimenta al modelo y una salida se produce de acuerdo con lo que las redes neuronales aprendido (la traducción, o el tipo de animal representado).

Los servicios de Microsoft vienen con modelos preconstruidos. los la personalización les permite ampliarse capacitándolos en datos específicos del negocio. Por ejemplo, el servicio de traducción podría se ampliará con traducciones personalizadas para frases particulares y jerga que son importantes para una industria en particular y deben ser traducido de una manera particular; reconocimiento de voz puede ser personalizado para acentos y vocabulario particulares; texto a voz podría usar un modelo acústico personalizado para cambiar el sonido de la voz producido.

La personalización funciona de la misma manera que la original. capacitación y construcción de modelos: los desarrolladores capacitarán el sistema utilizando su propio corpus de datos de prueba, basándose en lo preexistente modelos.

Las dos fases de los sistemas de aprendizaje automático tienen diferentes calcular los requisitos La formación inicial y la construcción de modelos es Computación extremadamente intensiva, a menudo acelerada con GPU o incluso procesadores dedicados de aprendizaje automático. Usando el modelo, por contraste, es comparativamente ligero. Eso no quiere decir que sea trivial: hacer un reconocimiento de imagen complejo en video en movimiento, para ejemplo, probablemente requerirá aceleración de GPU, pero las cargas de trabajo pueden ser lo suficientemente pequeño como para que tenga sentido ejecutarlos en el cliente sistemas.

Aquí es donde entra el enfoque de Microsoft en la implementación perimetral. Los modelos se pueden implementar en, por ejemplo, Windows Machine Learning o el tiempo de ejecución de Azure IOT Edge, lo que permite que estas tareas se envíen en teléfonos, PC y dispositivos integrados. Hacer esto reduce latencia, permite la operación desconectada (por ejemplo, realizar reconocimiento de imagen en un dron o en un sistema industrial no en red), y reduce los recursos informáticos (y, por lo tanto, las facturas mensuales por computación en la nube) que tienen los desarrolladores.

El servicio Vision será el primero en apoyar esta ventaja. despliegue. Los modelos mismos usan ONNX, un formato desarrollado por Servicios web de Microsoft, Facebook y Amazon y con el apoyo de Nvidia, Qualcomm, Intel y AMD.

Microsoft también está agregando nuevos servicios. Hay un pronóstico servicio que hará predicciones, un servicio de búsqueda personalizado que intentará establecer conexiones y referencias cruzadas dentro de un conjunto de datos y una búsqueda visual basada en Bing para recuperar imágenes de objetos que son similares a una imagen de búsqueda.

La compañía también continúa invirtiendo en bots, que son hacerse un hueco en escenarios de tipo servicio al cliente. El bot de Progressive Insurance en Facebook Messenger, por ejemplo, puede manejar, de principio a fin, todo el proceso de venta de seguros políticas, y las empresas están utilizando bots internamente para hacer cosas como como mejorar la interfaz de los sistemas de recursos humanos de autoservicio. Microsoftmostró una demostración inteligente de un bot que maneja sin problemas diferentes idiomas, con conversación contextual (permitiendo preguntas que consulte las respuestas anteriores) y la integración con el sitio web alojar el bot, para que la conversación del bot pueda navegar a diferentes páginas o realizar búsquedas.

Los nuevos servicios de bot incluyen un aprendiz de conversación (que permite el marco de bot para aprender los patrones de conversaciones de transcripciones existentes), un proyecto para dar a los bots más personalidad, y la disponibilidad general del fabricante de preguntas y respuestas (una herramienta para construyendo bots de preguntas y respuestas sin código).

Habilitar nuevos tipos de aplicación

El aprendizaje automático y la inteligencia artificial se han vuelto importantes palabras de moda en la industria informática, generando mucho cinismo hacia ambos. Gran parte de este cinismo probablemente esté justificado, pero Microsoft cree que estas características serán comunes a casi Todas las aplicaciones y servicios que utilizamos.

El aprendizaje automático también permite aplicaciones que simplemente No sería práctico antes. Un ejemplo es Iris, una empresa con La misión de acabar con la ceguera prevenible. Retinopatía diabética es una complicación de la diabetes, en la que la parte central de la la retina se daña, causando pérdida al centro del campo de visión. Con millones de diabéticos solo en los Estados Unidos, es un cuestión importante.

Detectar y diagnosticar la retinopatía requiere un oftalmólogo. El sistema de Iris permite a los proveedores de atención primaria analizar fotografías de retinas y proporcionar un examen de primer paso de la retina Tiene un sistema de reconocimiento de imágenes de aprendizaje automático. que analiza imágenes de tres maneras: detectando si la imagen es un ojo izquierdo o un ojo derecho, determinando si la calidad de la foto es suficientemente bueno para un análisis posterior y, finalmente, para detectar si Hay signos de retinopatía o no. Un médico puede tomar un fotografía de la retina y, en 37 segundos, saber con alta confianza (alrededor del 97 al 99 por ciento) si un paciente necesita ser referido a un oftalmólogo o no.

Brindar tal servicio a potencialmente todos los médicos en los EE. UU. o incluso más allá sería inviable: Iris necesitaría un enorme Número de oftalmólogos capacitados para examinar las imágenes. Pero con el aprendizaje automático, el trabajo pesado puede ser realizado por un computadora.

Las mejoras al aprendizaje automático también han hecho desarrollo del servicio mejor: en los primeros días, la compañía dijo que lo haría Tómese una semana para entrenar un modelo con 5.000 imágenes de prueba. Esto significaba que el cambio durante el desarrollo fue lento. Ahora con el ascenso de aceleración de GPU, un modelo puede ser entrenado usando 10,000 imágenes en solo dos dias. A medida que este tipo de aceleración mejora, el capacidades y precisión de sistemas como este solo obtendrán mejor.

Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: