2024年5月31日 星期五

[文章轉貼] 通透! !監督學習與無監督學習全總結!

 文章轉自微信公眾號:機器學習與人工智慧AI 

文章原始連結:https://mp.weixin.qq.com/s/-h22tpCi-ewjymG1INcRng

咱們今天詳細資訊的總結一下有監督和無監督演算法的區別和聯繫! !

監督學習和無監督學習是機器學習中兩種基本的學習範式,它們之間的主要區別在於訓練資料的標籤資訊是否提供。

監督學習(Supervised Learning):

  1. 標籤資訊: 監督學習使用帶有標籤的訓練資料。這意味著每個訓練樣本都有一個相關聯的標籤,即對應的輸出或目標值。
  2. 任務類型: 監督學習用於解決分類和回歸等任務。在分類任務中,模型預測輸入資料屬於哪個類別;而在迴歸任務中,模型預測一個連續值。
  3. 學習過程: 模型透過學習輸入與對應標籤之間的關係來進行訓練。演算法透過最小化預測值與實際標籤之間的差距來優化模型。
  4. 例: 支援向量機(SVM)、決策樹、神經網路等都是監督學習的例子。

無監督學習(Unsupervised Learning)

  1. 標籤資訊: 無監督學習使用沒有標籤的訓練資料。訓練樣本不包含對應的輸出或目標值。

  2. 任務類型: 無監督學習用於聚類、降維和關聯規則挖掘等任務。在聚類任務中,演算法試圖將資料集中的樣本分為不同的群組;在降維任務中,演算法試圖減少資料的維度;在關聯規則挖掘中,演算法試圖找到資料中的關聯性。

  3. 學習過程: 模型在沒有明確目標的情況下,自動發現資料中的結構和模式。它不需要事先知道正確的輸出。

  4. 例:  K均值聚類、主成分分析(PCA)、Apriori演算法等都是無監督學習的例子。

差別

  1. 數據標籤: 監督學習使用標籤的數據,而無監督學習使用沒有標籤的數據。

  2. 任務類型: 監督學習用於分類和回歸等標籤任務,而無監督學習用於聚類、降維和關聯規則挖掘等無標籤任務。

  3. 學習過程: 監督式學習著重於模型預測與真實標籤的關係,而無監督學習則著重於發現資料中的模式和結構,不依賴事先提供的輸出資訊。

監督學習演算法範例

支援向量機(Support Vector Machine,SVM) 支援向量機是一種用於分類和迴歸分析的監督學習演算法。其基本思想是找到一個超平面,該超平面能夠將資料集劃分為兩個類別,並且使得兩個類別之間的間隔最大。支援向量機在高維空間中透過資料點之間的最優超平面進行劃分,從而在低維空間中實現非線性分類。

給定一個訓練樣本集 ,其中  是特徵, 是類別標籤(+1 或-1),SVM 的目標是找到一個超平面 ,使得對於所有的 ,有 

此外,要最大化間隔 

完整程式碼

# 导入必要的库
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC

# 生成示例数据集
iris = datasets.load_iris()
X = iris.data[:, :2]  # 只使用前两个特征,便于可视化
y = iris.target

# 将数据集分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建SVM模型
svm_model = SVC(kernel='linear', C=1)
svm_model.fit(X_train, y_train)

# 绘制决策边界和支持向量
def plot_decision_boundary(model, X, y):
    h = .02  # 步长
    x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))
    
    Z = model.predict(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)
    
    plt.contourf(xx, yy, Z, cmap=plt.cm.coolwarm, alpha=0.8)
    plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.coolwarm)
    plt.xlabel('Feature 1')
    plt.ylabel('Feature 2')
    plt.title('SVM Decision Boundary')
    plt.show()

# 绘制决策边界和支持向量
plot_decision_boundary(svm_model, X_test, y_test)

使用了Iris資料集的前兩個特徵,創建了一個線性核的支援向量機模型,並繪製了決策邊界以及支援向量。圖形展示了SVM是如何找到一個最大間隔的超平面來分割不同類別的資料點的。



無監督學習演算法

K均值聚類(K-Means Clustering)

K均值聚類是一種迭代優化的聚類演算法,其目標是將資料集劃分為K個簇,每個簇內的資料點相似度較高,而不同簇之間的相似度較低。演算法的基本概念是透過迭代更新資料點與簇中心之間的距離,將資料點分配到距離最近的簇,然後更新每個簇的中心。

完整程式碼

# 导入必要的库
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
from sklearn.cluster import KMeans

# 生成示例数据集
X, y = make_blobs(n_samples=300, centers=4, random_state=42, cluster_std=1.0)

# 可视化原始数据
plt.scatter(X[:, 0], X[:, 1], c='gray', s=50, alpha=0.8)
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.title('Original Data')
plt.show()

# 创建K均值聚类模型
kmeans = KMeans(n_clusters=4, random_state=42)
kmeans.fit(X)

# 获取簇中心
centers = kmeans.cluster_centers_

# 预测每个数据点的簇标签
labels = kmeans.predict(X)

# 可视化K均值聚类结果
plt.scatter(X[:, 0], X[:, 1], c=labels, cmap='viridis', s=50, alpha=0.8)
plt.scatter(centers[:, 0], centers[:, 1], c='red', marker='X', s=200, label='Cluster Centers')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.title('K-Means Clustering')
plt.legend()
plt.show()

我們使用make_blobs產生一個包含4個簇的合成資料集。

然後,使用K均值聚類演算法將資料點分為4個簇,並繪製了原始資料和K均值聚類的結果。

圖形清楚地展示了K均值聚類是如何將資料點分組為具有相似特徵的簇的。



沒有留言:

張貼留言