Las 15 principales herramientas de inteligencia artificial de código abierto
La siguiente fuente abierta". Las aplicaciones de inteligencia artificial están a la vanguardia de la investigación en inteligencia artificial.
1. Café
Fue inventado por Jia mientras estudiaba su doctorado en la Universidad de California, Berkeley. Caffe es un marco de aprendizaje profundo basado en arquitectura de expresión y código escalable. Lo que lo hace famoso es su velocidad, lo que lo hace popular entre investigadores y usuarios empresariales. Según su sitio web, sólo una GPU NVIDIA K40 puede procesar más de 60 millones de imágenes en un día. Está gestionado por Berkeley Vision and Learning Center (BVLC) y respaldado por empresas como NVIDIA y Amazon.
2.CNTK
es la abreviatura de Computer Network Toolkit. CNTK es la herramienta de inteligencia artificial de código abierto de Microsoft. Ofrece un rendimiento excelente en una sola CPU, una sola GPU, varias GPU o varias máquinas con varias GPU. Microsoft se utiliza principalmente para la investigación del reconocimiento de voz, pero tiene buenas aplicaciones en traducción automática, reconocimiento de imágenes, subtítulos de imágenes, procesamiento de texto, comprensión del lenguaje, modelado del lenguaje, etc.
3. Deep Learning 4j
Deeplearning4j es una biblioteca de aprendizaje profundo de código abierto para Java Virtual Machine (JVM). Se ejecuta en un entorno distribuido y está integrado con Hadoop y Apache Spark. Esto permite configurar redes neuronales profundas y es compatible con lenguajes JVM como Java y Scala.
4.DMTK
La abreviatura de DMTK Distributed Machine Learning Toolkit, al igual que CNTK, es la herramienta de inteligencia artificial de código abierto de Microsoft. Al ser una aplicación diseñada para big data, su objetivo es entrenar sistemas de inteligencia artificial más rápidamente. Incluye tres componentes principales: marco DMTK, algoritmo de modelo de tema LightLDA y algoritmo de incrustación de palabras distribuidas (polisemia). Para demostrar su velocidad, Microsoft afirma que en una máquina de ocho clústeres puede "entrenar un modelo de temas con un vocabulario de más de 654,38 millones de temas, 654,38+ millones de palabras (total * * * 654,38+00 billones de parámetros) y recopila 654,38+00 mil millones de símbolos en un documento". Este logro no tiene comparación con otras herramientas.
5.H20
En comparación con la investigación científica, H2O se centra más en servir IA para usuarios empresariales, por lo que H2O tiene una gran cantidad de clientes empresariales, como Capital One Financial, Cisco, Nielsen Catalina, PayPal, Panamericana, etc. Afirma que cualquiera puede utilizar el poder del aprendizaje automático y el análisis predictivo para resolver problemas comerciales. Se puede utilizar para modelado predictivo, análisis de riesgos y fraudes, análisis de seguros, tecnología publicitaria, atención médica e inteligencia de clientes.
Dispone de dos versiones de código abierto: la versión estándar H2O y la versión Spark Water, que está integrada en Apache Spark. También hay soporte pago para usuarios empresariales.
6. Mahout
Es un proyecto de la Fundación Apache. Mahout es un marco de aprendizaje automático de código abierto. Según su sitio web, tiene tres características principales: un entorno de programación para construir algoritmos escalables, herramientas de algoritmos prediseñadas como Spark y H2O, y un entorno experimental de matemáticas vectoriales llamado Samsara. Las empresas que utilizan Mahout incluyen Adobe, Accenture, Foursquare, Intel, LinkedIn, Twitter, Yahoo y muchas otras. Su sitio web enumera soporte profesional de terceros.
7.MLlib
Debido a su rápida velocidad, Apache Spark se ha convertido en la herramienta de procesamiento de big data más popular. MLlib es la biblioteca escalable de aprendizaje automático de Spark. Integra Hadoop y puede interoperar con NumPy y r, incluida clasificación, regresión, árbol de decisión, recomendación, agrupación, modelado de temas, transformación de funciones, evaluación de modelos, arquitectura de canalización de ML, persistencia de ML, análisis de supervivencia y conjuntos de elementos frecuentes y varios algoritmos de aprendizaje automático. como minería de patrones secuenciales, álgebra lineal distribuida y estadística.
8. NuPIC
NuPIC está gestionado por Numenta y es un proyecto de inteligencia artificial de código abierto basado en la teoría jerárquica de la memoria temporal. Básicamente, HTM intenta crear un sistema informático que imite la corteza cerebral humana. Su objetivo es crear una máquina que "se acerque o supere las capacidades cognitivas humanas en muchas tareas cognitivas".
Además de las licencias de código abierto, Numenta también ofrece acuerdos de licencia comerciales para NuPic y licencias para patentes de tecnología.
9. OpenNN
Como inteligencia artificial con capacidades de comprensión avanzadas diseñada para desarrolladores e investigadores, OpenNN es una biblioteca de programación C++ que implementa algoritmos de redes neuronales. Sus características clave incluyen una arquitectura profunda y un rendimiento rápido. Se puede encontrar una amplia documentación en su sitio web, incluido un tutorial introductorio que explica los conceptos básicos de las redes neuronales.
10.OpenCyc
OpenCyc desarrollado por Cycorp proporciona acceso a la base de conocimientos de Cyc y al motor de razonamiento de sentido común. Tiene más de 239.000 entradas, unas 2.093.000 triples y unas 69.000 lechuzas: es una especie de espacio de nombres similar a un enlace a una biblioteca semántica externa. Tiene buenas aplicaciones en modelos de dominios enriquecidos, integración de datos semánticos, comprensión de textos, sistemas expertos de dominios específicos e inteligencia artificial de juegos. La compañía también ofrece otras dos versiones de Cyc: una que es gratuita para investigación pero no de código abierto, y otra que es gratuita para empresas pero requiere pago.
11. Oryx 2
Oryx 2 se basa en Apache Spark y Kafka y es un marco de desarrollo de aplicaciones diseñado específicamente para el aprendizaje automático a gran escala. Utiliza una arquitectura lambda única de tres capas. Los desarrolladores pueden crear nuevas aplicaciones utilizando Orys 2, y también tiene una serie de aplicaciones prediseñadas para tareas comunes de big data, como filtrado colaborativo, clasificación, regresión y agrupación. El proveedor de herramientas de big data Cloudera creó el proyecto original Oryx 1 y ha participado activamente en la sostenibilidad.
12. Prediction
En febrero de este año, Salesforce adquirió PredictionIO y luego contribuyó con la plataforma y las marcas registradas a la Fundación Apache en julio, que lo incluyó como un programa de incubación. Entonces, cuando Salesforce utiliza la tecnología PredictionIO para mejorar sus capacidades de aprendizaje automático, los efectos también aparecen en la versión de código abierto. Puede ayudar a los usuarios a crear un motor de predicción con capacidades de aprendizaje automático para implementar servicios web que puedan consultarse dinámicamente en tiempo real.
13. SystemML
SystemML fue desarrollado originalmente por IBM y ahora es un proyecto de big data de Apache. Proporciona una plataforma altamente escalable para operaciones matemáticas avanzadas y sus algoritmos están escritos en R o una sintaxis similar a Python. Las empresas lo han estado utilizando para rastrear el servicio al cliente para reparaciones de automóviles, planificar el transporte al aeropuerto y conectar datos de redes sociales con clientes bancarios. Puede ejecutarse en Spark o Hadoop.
14. Tensor Flow
TensorFlow es la herramienta de inteligencia artificial de código abierto de Google. Proporciona una biblioteca para cálculo numérico utilizando gráficos de flujo de datos. Se ejecuta en muchos sistemas diferentes con una o varias CPU y GPU, e incluso en dispositivos móviles. Ofrece una gran flexibilidad, verdadera portabilidad, capacidades de diferenciación automática y soporte para Python y C++. Su sitio web tiene una lista muy detallada de tutoriales para ayudar a los desarrolladores e investigadores a sumergirse en el uso o ampliación de su funcionalidad.
15. Torch
Torch se describe a sí mismo como "un marco informático científico que admite ampliamente algoritmos de aprendizaje automático basados en GPU" y se caracteriza por su flexibilidad y velocidad. Además, está convenientemente disponible a través de paquetes de software para aprendizaje automático, visión por computadora, procesamiento de señales, procesamiento paralelo, imágenes, video, audio y redes. Se basa en un lenguaje de programación llamado LuaJIT, que se basa en Lua.
Bienvenido a seguir~
WeChat Cuenta oficial de WeChat: programadores de TI, que brindan información gratuita sobre inteligencia artificial, big data, computación en la nube y otra información ~ No importa en qué parte del mundo se encuentre ¡De nada, atención!