首页 > 其他分享 >人工智能大模型原理与应用实战:从AutoML to Neural Architecture Search

人工智能大模型原理与应用实战:从AutoML to Neural Architecture Search

时间:2023-12-27 11:36:02浏览次数:37  
标签:Search github Neural openai Face 2020 https AutoML com


1.背景介绍

人工智能(Artificial Intelligence, AI)是一门研究如何让机器具有智能行为的学科。在过去的几年里,人工智能技术取得了显著的进展,尤其是在深度学习(Deep Learning)和自然语言处理(Natural Language Processing, NLP)等领域。这些技术的发展受益于大规模的计算资源和数据集,以及更先进的算法和架构。

然而,在实际应用中,构建高效且准确的人工智能模型仍然是一个挑战。这是因为,选择合适的算法和架构以及调整合适的参数是一个复杂的问题。这就是自动机器学习(Automated Machine Learning, AutoML)和神经架构搜索(Neural Architecture Search, NAS)这两个领域的研究主题。

AutoML 和 NAS 的目标是自动化地发现最佳的机器学习模型和神经网络架构,以提高模型的性能和效率。在这篇文章中,我们将讨论 AutoML 和 NAS 的核心概念、算法原理、实例代码和未来趋势。

2.核心概念与联系

2.1 AutoML

AutoML 是一种自动化的机器学习方法,它旨在自动地选择合适的算法、参数和特征以构建高效且准确的机器学习模型。AutoML 可以分为两个子领域:

  • 高级AutoML:这种方法通常使用基于规则的方法或基于模型的方法来选择算法和参数。例如,XGBoost 和 LightGBM 是基于模型的高级 AutoML 方法,它们可以自动调整参数以优化模型性能。
  • 低级AutoML:这种方法使用搜索算法(如随机搜索、穿插搜索、贝叶斯优化等)来探索算法、参数和特征空间,以找到最佳的组合。例如,Hyperopt 和 Optuna 是两个流行的低级 AutoML 库。

2.2 NAS

NAS 是一种自动化的神经网络架构设计方法,它旨在自动地发现最佳的神经网络结构和参数以提高模型的性能。NAS 可以分为两个子领域:

  • 基于规则的 NAS:这种方法使用固定的神经网络结构规则(如卷积、池化、全连接等)来构建神经网络,并使用搜索算法来优化这些规则以找到最佳的组合。例如,DARTS 是一个流行的基于规则的 NAS 方法。
  • 基于无规则的 NAS:这种方法使用无规则的神经网络结构(如生成剧集、有向图等)来构建神经网络,并使用搜索算法来优化这些结构以找到最佳的组合。例如,ProGAN 和 PPGAN 是两个流行的基于无规则的 NAS 方法。

3.核心算法原理和具体操作步骤以及数学模型公式详细讲解

3.1 AutoML 的核心算法原理

AutoML 的核心算法原理包括以下几个部分:

  • 特征选择:选择与目标变量相关的特征。例如,信息增益、互信息和朴素贝叶斯等方法。
  • 算法选择:选择适合数据集的机器学习算法。例如,随机森林、支持向量机和梯度提升等方法。
  • 参数优化:调整算法的参数以提高模型性能。例如,网格搜索、随机搜索和贝叶斯优化等方法。

这些算法原理可以组合在一起,以构建一个完整的 AutoML 流程。例如,在 Scikit-learn 中,PipelineGridSearchCV 可以用来实现这一过程。

3.2 NAS 的核心算法原理

NAS 的核心算法原理包括以下几个部分:

  • 神经网络架构搜索:搜索最佳的神经网络结构。例如,DARTS 和 PPGAN 等方法。
  • 神经网络参数优化:调整神经网络的参数以提高模型性能。例如,梯度下降、Adam 优化器和随机梯度下降等方法。

这些算法原理可以组合在一起,以构建一个完整的 NAS 流程。例如,在 TensorFlow 和 PyTorch 中,可以使用 tf.keras.layerstorch.nn 来实现这一过程。

3.3 数学模型公式详细讲解

3.3.1 AutoML 的数学模型公式

在 AutoML 中,特征选择、算法选择和参数优化可以用以下数学模型公式表示:

  • 特征选择:选择与目标变量相关的特征。例如,信息增益(IG)可以表示为:

$$ IG(X, Y) = IG(X \rightarrow Y) = H(Y) - H(Y|X) $$

其中,$H(Y)$ 是目标变量的熵,$H(Y|X)$ 是条件熵。

  • 算法选择:选择适合数据集的机器学习算法。例如,支持向量机(SVM)的损失函数可以表示为:

$$ L(w, b) = \frac{1}{2} ||w||^2 + C \sum_{i=1}^n \max(0, 1 - y_i \cdot (w^T x_i + b)) $$

其中,$w$ 是支持向量,$b$ 是偏置,$C$ 是正则化参数。

  • 参数优化:调整算法的参数以提高模型性能。例如,梯度下降(GD)算法可以表示为:

$$ w_{t+1} = w_t - \eta \nabla L(w_t, b_t) $$

其中,$w_t$ 是当前迭代的权重,$\eta$ 是学习率,$\nabla L(w_t, b_t)$ 是损失函数的梯度。

3.3.2 NAS 的数学模型公式

在 NAS 中,神经网络架构搜索和神经网络参数优化可以用以下数学模型公式表示:

  • 神经网络架构搜索:搜索最佳的神经网络结构。例如,DARTS 方法使用了一种称为 Policy Gradient 的方法,其目标是最大化预测准确率:

$$ \nabla \log P(G|X) = \nabla \sum_{i=1}^n \sum_{c=1}^C \mathbb{1}(y_i^c = \hat{y}_i^c) \log P(y_i^c|x_i, G) $$

其中,$G$ 是神经网络架构,$X$ 是训练数据,$n$ 是训练数据的数量,$C$ 是类别数,$\hat{y}_i^c$ 是预测结果,$P(y_i^c|x_i, G)$ 是预测概率。

  • 神经网络参数优化:调整神经网络的参数以提高模型性能。例如,梯度下降(GD)算法可以表示为:

$$ w_{t+1} = w_t - \eta \nabla L(w_t, b_t) $$

其中,$w_t$ 是当前迭代的权重,$\eta$ 是学习率,$\nabla L(w_t, b_t)$ 是损失函数的梯度。

4.具体代码实例和详细解释说明

4.1 AutoML 的具体代码实例

在 Scikit-learn 中,可以使用 PipelineGridSearchCV 来实现 AutoML 流程。以下是一个简单的示例:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import accuracy_score

# 加载数据集
iris = load_iris()
X, y = iris.data, iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建管道
pipeline = Pipeline([
    ('scaler', StandardScaler()),
    ('classifier', RandomForestClassifier())
])

# 创建参数空间
param_grid = {
    'classifier__n_estimators': [10, 50, 100],
    'classifier__max_depth': [None, 5, 10, 15],
    'classifier__min_samples_split': [2, 5, 10]
}

# 使用 GridSearchCV 进行参数优化
from sklearn.model_selection import GridSearchCV
grid_search = GridSearchCV(pipeline, param_grid, cv=5, scoring='accuracy', n_jobs=-1)
grid_search.fit(X_train, y_train)

# 预测并评估模型性能
y_pred = grid_search.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
print(f'Accuracy: {accuracy:.4f}')

在这个示例中,我们首先加载了鸢尾花数据集,并将其分为训练集和测试集。然后,我们创建了一个管道,包括标准化器和随机森林分类器。接着,我们创建了一个参数空间,用于存储随机森林分类器的参数。最后,我们使用 GridSearchCV 进行参数优化,并评估模型性能。

4.2 NAS 的具体代码实例

在 TensorFlow 中,可以使用 tf.keras.layerstf.keras.Model 来实现 NAS 流程。以下是一个简单的示例:

import tensorflow as tf
from tensorflow.keras.layers import Input, Dense, Conv2D, MaxPooling2D, Flatten
from tensorflow.keras.models import Model

# 定义神经网络架构
def create_model(input_shape, num_classes):
    inputs = Input(shape=input_shape)
    x = Conv2D(32, (3, 3), activation='relu')(inputs)
    x = MaxPooling2D((2, 2))(x)
    x = Flatten()(x)
    x = Dense(128, activation='relu')(x)
    outputs = Dense(num_classes, activation='softmax')(x)
    model = Model(inputs=inputs, outputs=outputs)
    return model

# 创建数据集
mnist = tf.keras.datasets.mnist
(X_train, y_train), (X_test, y_test) = mnist.load_data()
X_train, X_test = X_train / 255.0, X_test / 255.0

# 创建模型
input_shape = (28, 28, 1)
num_classes = 10
model = create_model(input_shape, num_classes)

# 编译模型
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])

# 训练模型
model.fit(X_train, y_train, epochs=10, batch_size=32, validation_split=0.1)

# 评估模型性能
test_loss, test_acc = model.evaluate(X_test, y_test)
print(f'Test accuracy: {test_acc:.4f}')

在这个示例中,我们首先定义了一个简单的神经网络架构,包括卷积层、池化层和全连接层。然后,我们创建了数据集(使用 MNIST 数据集)并将其分为训练集和测试集。接着,我们创建了模型,编译模型并进行训练。最后,我们评估模型性能。

5.未来发展趋势与挑战

AutoML 和 NAS 是一些非常热门的研究领域,它们在人工智能和机器学习领域具有广泛的应用潜力。在未来,这些领域可能会面临以下挑战和趋势:

  • 更高效的搜索算法:目前的 AutoML 和 NAS 方法依赖于搜索算法来优化模型的性能。这些算法通常需要大量的计算资源和时间。因此,研究人员可能会关注如何提高搜索算法的效率,以减少训练时间和计算成本。
  • 自适应学习:未来的 AutoML 和 NAS 方法可能会更加智能,能够根据数据集和任务类型自动选择最佳的模型和参数。这将有助于提高模型的泛化性能,并减少人工干预的需求。
  • 解释性和可解释性:随着 AutoML 和 NAS 方法的发展,模型的复杂性也会增加。这将使得模型更难解释和可解释。因此,研究人员可能会关注如何为 AutoML 和 NAS 方法提供更好的解释性和可解释性,以便用户更好地理解模型的工作原理。
  • 多模态和多任务学习:未来的 AutoML 和 NAS 方法可能会涉及到多模态和多任务学习,这将需要更复杂的搜索策略和优化方法。
  • 与其他领域的融合:未来的 AutoML 和 NAS 方法可能会与其他人工智能和机器学习领域进行融合,例如深度学习、生成对抗网络、自然语言处理等。这将有助于提高模型的性能和可扩展性。

6.结论

AutoML 和 NAS 是一些非常热门的研究领域,它们旨在自动化地发现最佳的机器学习模型和神经网络架构。在这篇文章中,我们讨论了 AutoML 和 NAS 的核心概念、算法原理、数学模型公式、具体代码实例和未来趋势。我们希望这篇文章能够帮助读者更好地理解这两个领域的基本概念和应用,并为未来的研究提供一些启示。

参考文献

  1. Berg, M., Kober, J., & Lehman, J. (2011). Neural architecture search: A random, reinforcement learning and wrapper approach. In Proceedings of the 29th International Conference on Machine Learning (ICML 2012).
  2. Liu, Z., Chen, Z., Zhang, H., Zhou, Z., & Chen, Y. (2018). Progressive Neural Architecture Search. In Proceedings of the 35th International Conference on Machine Learning (ICML 2018).
  3. Real, A., & Riedmiller, M. (2017). Large Scale Optimization for Neural Architecture Search. In Proceedings of the 34th International Conference on Machine Learning (ICML 2017).
  4. Elsken, T., & Wiering, M. (2008). A multi-fidelity evolutionary algorithm for the design of artificial neural networks. IEEE Transactions on Evolutionary Computation, 12(5), 590-608.
  5. Hutter, F. (2011). Sequence models for neural architecture search. In Proceedings of the 28th International Conference on Machine Learning (ICML 2011).
  6. Jaderberg, Y., Choi, A., Zhang, Y., & Mohamed, A. (2017). Population-Based Training of Neural Networks. In Proceedings of the 34th International Conference on Machine Learning (ICML 2017).
  7. Zoph, B., & Le, Q. V. (2016). Neural Architecture Search. In Proceedings of the 33rd International Conference on Machine Learning (ICML 2016).
  8. Tan, M., Zhang, H., Liu, Z., Zhou, Z., & Chen, Y. (2019). EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks. In Proceedings of the 36th International Conference on Machine Learning (ICML 2019).
  9. Keras (2020). TensorFlow. https://www.tensorflow.org/
  10. Scikit-learn (2020). https://scikit-learn.org/
  11. Darts (2020). https://github.com/lukemelas/darts
  12. Auto-PyTorch (2020). https://github.com/Auto-ML/Auto-PyTorch
  13. Google Cloud AutoML (2020). https://cloud.google.com/automl
  14. H2O.ai (2020). https://www.h2o.ai/products/automl/
  15. DataRobot (2020). https://www.datarobot.com/automated-machine-learning/
  16. IBM Watson Studio (2020). https://www.ibm.com/products/watson-studio
  17. Microsoft Azure Machine Learning (2020). https://azure.microsoft.com/en-us/services/machine-learning/
  18. Amazon SageMaker (2020). https://aws.amazon.com/sagemaker/
  19. Google Cloud TPUs (2020). https://cloud.google.com/tpu
  20. NVIDIA Tensor Cores (2020). https://www.nvidia.com/en-us/data-center/tesla-gpus/tensor-cores/
  21. OpenAI Gym (2020). https://gym.openai.com/
  22. OpenAI Universe (2020). https://universe.openai.com/
  23. OpenAI Dactyl (2020). https://openai.com/blog/dactyl/
  24. OpenAI Five (2020). https://openai.com/blog/dota-2/
  25. OpenAI GPT-3 (2020). https://openai.com/blog/openai-gpt-3/
  26. OpenAI Codex (2020). https://openai.com/blog/codex/
  27. OpenAI CLIP (2020). https://openai.com/blog/clip/
  28. OpenAI DALL-E (2020). https://openai.com/blog/dalle-2/
  29. OpenAI GPT-Neo (2020). https://openai.com/blog/gpt-neo/
  30. OpenAI GPT-J (2020). https://openai.com/blog/gpt-j/
  31. OpenAI GPT-3 API (2020). https://beta.openai.com/docs/
  32. Hugging Face Transformers (2020). https://github.com/huggingface/transformers
  33. Hugging Face Datasets (2020). https://github.com/huggingface/datasets
  34. Hugging Face Tokenizers (2020). https://github.com/huggingface/tokenizers
  35. Hugging Face Pytorch-Lightning (2020). https://github.com/PyTorchLightning/pytorch-lightning
  36. Hugging Face FastAPI (2020). https://github.com/tiangolo/fastapi
  37. Hugging Face FastBook (2020). https://github.com/huggingface/fastbook
  38. Hugging Face TextAttack (2020). https://github.com/QData/TextAttack
  39. Hugging Face BERT (2020). https://github.com/google-research/bert
  40. Hugging Face BERT-as-service (2020). https://github.com/huggingface/bert-serving
  41. Hugging Face BLOOM (2020). https://github.com/bigscience-workshop/bloom
  42. Hugging Face BERT-Score (2020). https://github.com/TuSimple/bert-score
  43. Hugging Face Sentence-Transformers (2020). https://github.com/UKPLab/sentence-transformers
  44. Hugging Face Pipeline (2020). https://github.com/huggingface/transformers/tree/master/examples/pipeline
  45. Hugging Face Trainer (2020). https://github.com/huggingface/transformers/tree/master/examples/training
  46. Hugging Face Ignite (2020). https://github.com/LAION-AI/Ignite
  47. Hugging Face Transformers Model Zoo (2020). https://huggingface.co/models
  48. Hugging Face Transformers Model Card (2020). https://huggingface.co/transformers/model_card
  49. Hugging Face Transformers Pytorch-Ignite (2020). https://github.com/laion-ai/Ignite
  50. Hugging Face Transformers Pytorch-Einpress (2020). https://github.com/pytorch/ignite
  51. Hugging Face Transformers Pytorch-Lightning (2020). https://github.com/PyTorchLightning/pytorch-lightning
  52. Hugging Face Transformers TensorFlow (2020). https://github.com/tensorflow/models/tree/master/official/nlp
  53. Hugging Face Transformers JAX (2020). https://github.com/google/jax
  54. Hugging Face Transformers ONNX (2020). https://github.com/onnx/tutorials/tree/master/tutorials/PyTorch
  55. Hugging Face Transformers MMEngine (2020). https://github.com/microsoft/MMengine
  56. Hugging Face Transformers TorchScript (2020). https://pytorch.org/docs/stable/jit.html
  57. Hugging Face Transformers TorchServe (2020). https://pytorch.org/docs/stable/serve.html
  58. Hugging Face Transformers Rasa (2020). https://github.com/RasaHQ/rasa
  59. Hugging Face Transformers Rasa NLU (2020). https://github.com/RasaHQ/rasa-nlu
  60. Hugging Face Transformers Rasa Core (2020). https://github.com/RasaHQ/rasa-core
  61. Hugging Face Transformers Rasa Dialogue Management (2020). https://github.com/RasaHQ/rasa-dialogue-management
  62. Hugging Face Transformers Rasa Custom (2020). https://github.com/RasaHQ/rasa-custom
  63. Hugging Face Transformers Rasa Connect (2020). https://github.com/RasaHQ/rasa-connect
  64. Hugging Face Transformers Rasa X (2020). https://github.com/RasaHQ/rasa-x
  65. Hugging Face Transformers SpaCy (2020). https://github.com/explosion/spaCy
  66. Hugging Face Transformers Stanza (2020). https://github.com/stanfordnlp/Stanza
  67. Hugging Face Transformers NLTK (2020). https://www.nltk.org/
  68. Hugging Face Transformers Gensim (2020). https://radimrehurek.com/gensim/
  69. Hugging Face Transformers FastText (2020). https://fasttext.cc/
  70. Hugging Face Transformers TextBlob (2020). https://textblob.readthedocs.io/en/dev/
  71. Hugging Face Transformers Spacy (2020). https://spacy.io/
  72. Hugging Face Transformers GPT-2 (2020). https://github.com/openai/gpt-2
  73. Hugging Face Transformers GPT-Neo (2020). https://github.com/EleutherAI/gpt-neo
  74. Hugging Face Transformers GPT-J (2020). https://github.com/BigGAN-team/gpt-j
  75. Hugging Face Transformers GPT-3 (2020). https://github.com/openai/gpt-3
  76. Hugging Face Transformers GPT-3 Demo (2020). https://beta.openai.com/demo
  77. Hugging Face Transformers GPT-3 API (2020). https://beta.openai.com/docs/
  78. Hugging Face Transformers GPT-3 API Python (2020). https://github.com/openai/openai
  79. Hugging Face Transformers GPT-3 API Java (2020). https://github.com/openai/openai-java
  80. Hugging Face Transformers GPT-3 API JavaScript (2020). https://github.com/openai/openai-js
  81. Hugging Face Transformers GPT-3 API Python (2020). https://github.com/openai/openai-python
  82. Hugging Face Transformers GPT-3 API Node.js (2020). https://github.com/openai/openai-node
  83. Hugging Face Transformers GPT-3 API Ruby (2020). https://github.com/openai/openai-ruby
  84. Hugging Face Transformers GPT-3 API Go (2020). https://github.com/openai/openai-go
  85. Hugging Face Transformers GPT-3 API Rust (2020). https://github.com/openai/openai-rust
  86. Hugging Face Transformers GPT-3 API C# (2020). https://github.com/openai/openai-csharp
  87. Hugging Face Transformers GPT-3 API PHP (2020). https://github.com/openai/openai-php
  88. Hugging Face Transformers GPT-3 API Swift (2020). https://github.com/openai/openai-swift
  89. Hugging Face Transformers GPT-3 API Kotlin (2020). https://github.com/openai/openai-kotlin
  90. Hugging Face Transformers GPT-3 API TypeScript (2020). https://github.com/openai/openai-typescript
  91. Hugging Face Transformers GPT-3 API Elixir (2020). https://github.com/openai/openai-elixir
  92. Hugging Face Transformers GPT-3 API Julia (2020). https://github.com/openai/openai-julia
  93. Hugging Face Transformers GPT-3 API R (2020). https://github.com/openai/openai-r
  94. Hugging Face Transformers GPT-3 API MATLAB (2020). https://github.com/openai/openai-matlab
  95. Hugging Face Transformers GPT-3 API Fortran (2020). https://github.com/openai/openai-fortran
  96. Hugging Face Transformers GPT-3 API Ada (2020). https://github.com/openai/openai-ada
  97. Hugging Face Transformers GPT-3 API Zig (2020). https://github.com/openai/openai-zig
  98. Hugging Face Transformers GPT-3 API Nim (2020). https://github.com/openai/openai-nim
  99. Hugging Face Transformers GPT-3 API Nimble (2020). https://github.com/openai/openai-nimble
  100. Hugging Face Transformers GPT-3 API Rusty (2020). https://github.com/openai/openai-rusty
  101. Hugging Face Transformers GPT-3 API Rusty (2020). https://github.com/openai/openai-rusty

标签:Search,github,Neural,openai,Face,2020,https,AutoML,com
From: https://blog.51cto.com/universsky/8997138

相关文章

  • Neural Networks for Weather Prediction: Enhancing Accuracy with Deep Learning
    1.背景介绍气象预报是一项对于人类生活和经济发展至关重要的科学。传统的气象预报方法主要包括观测、数据处理、数值预报和预报分析等。随着计算能力和数据量的增加,人工智能技术,尤其是深度学习,在气象预报中发挥了越来越重要的作用。在这篇文章中,我们将介绍如何使用神经网络来预测气......
  • redisearch入门
    redisearch1.安装docker安装dockerrun-d--nameredisearch-p8379:6379redislabs/redisearch2.验证验证search是否安装dockerexec-itredisearchredis-climodulelist1)1)"name"2)"ReJSON"3)"ver"4)(integer)99......
  • elasticsearch安装
    #!/bin/bash###############################################################FileName:install_redis.sh#Version:V1.0#Author:junwang#Organization:#CreatedTime:2021-04-1517:12:54#Description:###############################################......
  • Elasticsearch简明学习(第一天)
    工作相关和扩展核心能力的需要,采用较为简单的方法来学习Elasticsearch,作相关记录备查。一、采用Docker安装sudodockerpullelasticsearch:7.7.0sudodockerimagessudodockerrun--nameelasticsearch-d-eES_JAVA_OPTS="-Xms512m-Xmx512m"-e"discovery.type=single-node"......
  • Elasticsearch 创建索引
    使用Elasticsearch创建索引步骤:打开Elasticsearch的命令行工具(如cURL或Elasticsearch提供的Kibana工具)或集成开发环境(如Elasticsearch的官方客户端库或第三方客户端库)。使用HTTP请求的PUT方法创建索引。需要指定索引的名称,以简单的字符串表示。使用以下命令创建名......
  • Graph Condensation for Graph Neural Networks
    目录概符号说明MotivationGCOND代码JinW.,ZhaoL.,ZhangS.,LiuY.,TangJ.andShahN.Graphcondensationforgraphneuralnetworks.ICLR,2022.概图上做压缩的工作.符号说明\(\mathbf{A}\in\mathbb{R}^{N\timesN}\),邻接矩阵;\(\mathbf{X}\in\mathbb{......
  • Java Spring Boot 集成 elasticsearch6.8.x
    在全文搜索领域,毫无疑问,当下elasticsearch应用广泛,其优势自不必说,凭借全文快速搜索,可以在短时内实现大数据量的查询。今天学习下在SpringBoot中集成elasticsearch开发,这里主要展示可以怎么用,至于开发人员向通过ElasticsearchORM封装,也可以参考下面的示例。环境:Sprin......
  • 无涯教程-PL/SQL - Searched CASE 语句函数
    搜索的CASE语句没有选择器,并且该语句的WHEN子句包含提供布尔值的搜索条件。SearchedCASE-语法PL/SQL中搜索到的case语句的语法为-CASEWHENselector='value1'THENS1;WHENselector='value2'THENS2;WHENselector='value3'THENS3;...ELSESn......
  • 基于Docker安装Elasticsearch + Kibana
    基于Docker安装Elasticsearch+Kibana前提是先安装好Docker的环境Docker创建网络Docker创建一个网络专门连接Elasticsearch和Kibanadockernetworkcreatees-netDocker安装Elasticsearch拉取镜像(这里以8.6.0版本为例)dockerpullelasticsearch:8.6.0创建es的挂......
  • ml.net例子笔记6-ml.net v2之AutoML
    AutoML1概念自动化机器学习也称为自动化ML或AutoML,是将机器学习模型开发过程中耗时的反复性任务自动化的过程。数据科学家、分析师和开发人员可以使用它来生成高度可缩放、高效且高产能的ML模型,同时保证模型的质量。https://learn.microsoft.com/zh-cn/dotnet/machine-l......