Crear ML de WWDC2018 (1)

La WWDC2018 acaba de finalizar hace menos de un mes. ¿Están los desarrolladores ansiosos por probar las nuevas funciones de iOS12? En la WWDC2018, Boss Ku lanzó iOS12, watchOS 5, macOS Mojave y tvOS12. Esta conferencia actualizó ARKit2, CoreML2 y agregó Create ML. Entonces, ¿debemos sentir curiosidad por saber qué es el nuevo Create ML? ¿Qué tiene que ver con CoreML? Déjame explicartelo.

Si ha utilizado CoreML, debe saber que el requisito previo para utilizar CoreML es que necesita un modelo de aprendizaje automático que haya sido entrenado. ¿De dónde viene este modelo? Utilice marcos de redes neuronales como tensorflow para entrenarlo y luego conviértalo al formato correspondiente a través de las herramientas de Apple antes de que pueda usarse. Sin embargo, en este caso, debe aprender el algoritmo de red neuronal correspondiente y escribir el algoritmo neuronal correspondiente. entrenar el modelo, lo que cuesta toneladas de aprendizaje. En este momento, la aparición de Create ML puede facilitarle el entrenamiento del modelo. ¡Apple es muy considerado!

¡A continuación demostraré el método más básico paso a paso!

Todos sabemos que CoreML se usa principalmente para reconocer imágenes y lenguajes naturales. Entonces, en este artículo, usamos el reconocimiento de imágenes como demostración.

Sistema informático: macOS Mojave

Versión de Xcode: Xcode 10 beta2

Lenguaje de desarrollo: Swift4.2

Objetivo: Categoría gatos, Imágenes de perros, leones, tigres y ovejas

1. Preprocesamiento de datos

Primero, necesitamos recopilar datos de imágenes únicos de gatos, perros, leones, tigres y ovejas, 80 de los cuales el% de las imágenes se utilizan como conjunto de entrenamiento y el 20% de las imágenes se utilizan como conjunto de prueba.

Cree una nueva carpeta llamada Datos de entrenamiento. Esta carpeta se utiliza como la carpeta total del conjunto de entrenamiento y luego cree una nueva carpeta para clasificarla en esta carpeta.