当前位置: 代码网 > it编程>开发工具>Pycharm > 引领未来:在【PyCharm】中利用【机器学习】与【支持向量机】实现高效【图像识别】

引领未来:在【PyCharm】中利用【机器学习】与【支持向量机】实现高效【图像识别】

2024年07月28日 Pycharm 我要评论
支持向量机(SVM)进行图像识别的完整过程,包括从获取并可视化MNIST数据集、进行数据标准化、划分训练和测试集、通过网格搜索优化SVM模型、评估模型性能到预测新图像的各个步骤,并在代码中添加了调试输出和计时器以便更好地跟踪和优化整个过程。

目录

一、数据准备

1. 获取数据集

2. 数据可视化

3. 数据清洗

二、特征提取

1. 数据标准化

2. 图像增强

三、模型训练

1. 划分训练集和测试集

2. 训练 svm 模型

3. 参数调优

四、模型评估

1. 评估模型性能

2. 可视化结果

五、预测新图像

1. 加载和预处理新图像

​编辑

完整代码

总结 


 

一、数据准备

数据准备是机器学习项目的基础步骤。数据的质量直接影响模型的性能和最终结果。在图像识别任务中,数据通常是大量的图像文件,我们需要将这些图像转化为适合模型处理的格式。我们将使用 mnist 数据集,这是一个包含手写数字图像的标准数据集。

1. 获取数据集

mnist 数据集包含 70,000 个 28x28 像素的灰度图像,每个图像表示一个 0-9 的数字。这个数据集非常适合初学者进行机器学习和图像识别的练习。

首先,我们需要从公开数据源下载 mnist 数据集。我们可以使用 fetch_openml 函数从 openml 平台下载该数据集:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import fetch_openml

# 下载 mnist 数据集
mnist = fetch_openml('mnist_784', version=1)
x, y = mnist["data"], mnist["target"]

# 将标签转换为整数
y = y.astype(int)

# 将 x 转换为 numpy 数组
x = x.values

上述代码使用 fetch_openml 函数从 openml 平台下载 mnist 数据集。数据存储在 xy 中,x 包含图像数据,y 包含对应的标签。x 是一个包含 70,000 个样本的数组,每个样本是一个 784 维(28x28)的向量。y 是对应的标签,表示图像中的数字。

小李的理解数据准备是整个过程的基础。就像建房子一样,地基要打好。如果数据质量不好,后续的模型训练和评估都可能会出问题。mnist 数据集很好用,因为它已经预处理好了,但在实际应用中,可能需要更多的数据清洗和预处理工作。

2. 数据可视化

为了更好地理解数据,我们可以可视化一些样本图像。这有助于直观地了解数据的分布和特征。

def plot_digit(data):
    image = data.reshape(28, 28)
    plt.imshow(image, cmap=plt.cm.binary, interpolation='nearest')
    plt.axis("off")

# 显示前十个图像
plt.figure(figsize=(12, 8))
for i in range(10):
    plt.subplot(2, 5, i + 1)
    plot_digit(x[i])
plt.show()

通过这些代码,我们将展平的向量重新转换为 28x28 的图像,并使用 matplotlib 绘制出来。这样可以直观地看到手写数字的样本图像。

小李的理解数据可视化有助于我们直观地了解数据。如果我们能看到图像,就更容易理解模型为什么会做出某些预测。

3. 数据清洗

虽然 mnist 数据集已经经过了预处理,但在实际应用中,数据可能需要进行进一步清洗。数据清洗的目的是去除或修正数据中的错误和异常值。常见的数据清洗方法包括去除重复数据、填补缺失值和纠正数据格式等。在图像数据中,清洗过程可能包括去除模糊或损坏的图像。

二、特征提取

在机器学习中,特征提取是将原始数据转换为模型能够处理的特征向量的过程。对于 mnist 数据集,每个图像已经是 784 维的向量,因此我们不需要额外的特征提取步骤。

1. 数据标准化

标准化是将数据的特征缩放到相同的尺度上,这有助于加快训练速度并提高模型的性能。在这里,我们使用 standardscaler 对数据进行标准化处理。

from sklearn.preprocessing import standardscaler

scaler = standardscaler()
x_scaled = scaler.fit_transform(x)

standardscaler 会将每个特征调整为均值为 0,标准差为 1 的分布,这样可以避免某些特征由于数值范围较大而对模型产生过大的影响。

小李的理解标准化有助于确保模型不会被某些特征的数量级所主导。它让所有特征在同一个尺度上,更加公平地影响模型。

2. 图像增强

虽然在这次任务中我们不需要进行复杂的图像处理,但在实际应用中,图像增强是常见的步骤。图像增强技术可以通过旋转、缩放、裁剪、颜色变换等方式增加数据集的多样性,从而提升模型的泛化能力。例如,我们可以使用 opencv 或其他图像处理库进行数据增强。

import cv2

def augment_image(image):
    # 随机旋转图像
    angle = np.random.randint(-15, 15)
    m = cv2.getrotationmatrix2d((14, 14), angle, 1)
    rotated = cv2.warpaffine(image, m, (28, 28))

    # 随机缩放图像
    scale = np.random.uniform(0.9, 1.1)
    scaled = cv2.resize(rotated, none, fx=scale, fy=scale)

    return scaled

# 应用图像增强
augmented_images = np.array([augment_image(img.reshape(28, 28)).flatten() for img in x])

小李的理解图像增强技术可以增加数据的多样性,有助于提高模型的泛化能力。在实际项目中,合理地使用图像增强技术是非常有必要的。

三、模型训练

模型训练是机器学习过程中的关键步骤。在这个过程中,我们将使用支持向量机(svm)来训练模型。svm 是一种强大的分类算法,特别适用于高维数据。

1. 划分训练集和测试集

首先,我们需要将数据集划分为训练集和测试集。训练集用于训练模型,测试集用于评估模型性能。

from sklearn.model_selection import train_test_split

x_train, x_test, y_train, y_test = train_test_split(x_scaled, y, test_size=0.2, random_state=42)

上述代码将数据集划分为训练集(80%)和测试集(20%)。random_state 参数用于确保结果的可重复性。

小李的理解将数据划分为训练集和测试集是为了能够评估模型的泛化能力。如果不划分数据,模型可能会过拟合,无法在新数据上表现良好。

2. 训练 svm 模型

接下来,我们使用线性核的 svm 进行模型训练。线性核适用于数据线性可分的情况。

from sklearn.svm import svc

# 创建 svm 分类器
svm_clf = svc(kernel='linear', c=1)

# 训练模型
svm_clf.fit(x_train, y_train)

在这段代码中,我们创建了一个线性核的 svm 分类器,并使用训练集的数据训练模型。c 参数是正则化参数,控制模型的复杂度。较小的 c 值会使模型更简单,但可能欠拟合;较大的 c 值会使模型更复杂,但可能过拟合。

小李的理解svm 的目标是找到一个最佳的决策边界,将不同类别的样本分开。c 参数可以调节模型的复杂度,适当的 c 值可以避免过拟合或欠拟合。

3. 参数调优

在训练模型时,选择合适的参数是非常重要的。除了 c 参数外,svm 的核函数也可以选择不同的类型,如多项式核、rbf 核等。我们可以使用网格搜索(grid search)来自动化选择最佳参数组合。

from sklearn.model_selection import gridsearchcv

param_grid = [
    {'c': [0.1, 1, 10, 100], 'kernel': ['linear']},
    {'c': [0.1, 1, 10, 100], 'gamma': [0.001, 0.0001], 'kernel': ['rbf']},
]

grid_search = gridsearchcv(svc(), param_grid, cv=5, scoring='accuracy')
grid_search.fit(x_train, y_train)

print("best parameters:", grid_search.best_params_)

小李的理解参数调优是提高模型性能的重要步骤。通过网格搜索,我们可以系统地测试不同的参数组合,找到最佳的模型配置。

四、模型评估

在模型训练完成后,我们需要评估其性能。常用的评估指标包括准确率、精确率、召回率和 f1 值。此外,我们还可以使用混淆矩阵来进一步分析模型的表现。

1. 评估模型性能

我们使用测试集数据进行预测,并计算模型的评估指标。

from sklearn.metrics import accuracy_score, classification_report, confusion_matrix

y_pred = grid_search.predict(x_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print(f"accuracy: {accuracy}")

# 打印分类报告
print("classification report:\n", classification_report(y_test, y_pred))

# 打印混淆矩阵
print("confusion matrix:\n", confusion_matrix(y_test, y_pred))

上述代码首先使用测试集的数据进行预测,然后计算并打印了模型的准确率、分类报告和混淆矩阵。准确率是正确分类的样本数与总样本数的比值。分类报告包含了每个类别的精确率、召回率和 f1 值。混淆矩阵显示了分类器在每个类别上的表现情况。

小李的理解评估模型就像考试后的成绩单,不仅要看总分(准确率),还要看单科成绩(精确率、召回率等)。混淆矩阵对分析模型的分类能力特别有用,能看出哪些类别容易混淆。

2. 可视化结果

为了更直观地理解模型的性能,我们可以可视化一些预测结果。

def plot_digits(images, labels, predictions, start_idx, num):
    plt.figure(figsize=(12, 8))
    for i in range(num):
        plt.subplot(2, num//2, i + 1)
        plot_digit(images[start_idx + i])
        plt.title(f"true: {labels[start_idx + i]}\npred: {predictions[start_idx + i]}")
    plt.show()

# 显示前十个预测结果
plot_digits(x_test, y_test, y_pred, 0, 10)

这段代码定义了一个函数 plot_digits,用于绘制图像并显示真实标签和预测标签。我们使用它来可视化前十个预测结果。

小李的理解可视化结果能直观地看到模型的预测效果,特别是可以发现哪些图像被错误分类,并分析其原因。

五、预测新图像

最后,我们来看一下如何使用训练好的模型来预测新图像的类别。

1. 加载和预处理新图像

假设我们有一张新的手写数字图像,存储在文件 new_digit.png 中。我们需要加载这张图像,并将其转换为模型可以处理的格式。

import cv2

# 加载图像
img = cv2.imread('new_digit.png', cv2.imread_grayscale)

# 调整图像大小为 28x28
img_resized = cv2.resize(img, (28, 28))

# 展平图像为 784 维向量
img_flattened = img_resized.flatten()

# 归一化图像
img_normalized = img_flattened / 255.0

# 标准化图像
img_standardized = scaler.transform([img_normalized])

# 预测图像类别
prediction = grid_search.predict(img_standardized)
print(f"predicted class: {prediction[0]}")

在这段代码中,我们使用 opencv 加载灰度图像,并将其调整为 28x28 的大小。然后展平图像为 784 维的向量,并归一化处理。接着,我们使用之前的标准化器对图像进行标准化处理。最后,我们使用训练好的 svm 模型预测图像的类别。

小李的理解预测新图像时,需要将图像转换为与训练数据相同的格式。这包括调整图像大小、展平成向量、归一化和标准化。这样,模型就可以理解并进行预测了。

完整代码

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import fetch_openml
from sklearn.preprocessing import standardscaler
from sklearn.model_selection import train_test_split, gridsearchcv
from sklearn.svm import svc
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix
import cv2

# 一、数据准备

# 1. 获取数据集
mnist = fetch_openml('mnist_784', version=1)
x, y = mnist["data"], mnist["target"]
y = y.astype(np.int)

# 2. 数据可视化
def plot_digit(data):
    image = data.reshape(28, 28)
    plt.imshow(image, cmap=plt.cm.binary, interpolation='nearest')
    plt.axis("off")

plt.figure(figsize=(12, 8))
for i in range(10):
    plt.subplot(2, 5, i + 1)
    plot_digit(x[i])
plt.show()

# 二、特征提取

# 1. 数据标准化
scaler = standardscaler()
x_scaled = scaler.fit_transform(x)

# 三、模型训练

# 1. 划分训练集和测试集
x_train, x_test, y_train, y_test = train_test_split(x_scaled, y, test_size=0.2, random_state=42)

# 2. 训练 svm 模型
param_grid = [
    {'c': [0.1, 1, 10, 100], 'kernel': ['linear']},
    {'c': [0.1, 1, 10, 100], 'gamma': [0.001, 0.0001], 'kernel': ['rbf']},
]
grid_search = gridsearchcv(svc(), param_grid, cv=5, scoring='accuracy')
grid_search.fit(x_train, y_train)
print("best parameters:", grid_search.best_params_)

# 四、模型评估

# 1. 评估模型性能
y_pred = grid_search.predict(x_test)
accuracy = accuracy_score(y_test, y_pred)
print(f"accuracy: {accuracy}")
print("classification report:\n", classification_report(y_test, y_pred))
print("confusion matrix:\n", confusion_matrix(y_test, y_pred))

# 2. 可视化结果
def plot_digits(images, labels, predictions, start_idx, num):
    plt.figure(figsize=(12, 8))
    for i in range(num):
        plt.subplot(2, num//2, i + 1)
        plot_digit(images[start_idx + i])
        plt.title(f"true: {labels[start_idx + i]}\npred: {predictions[start_idx + i]}")
    plt.show()

plot_digits(x_test, y_test, y_pred, 0, 10)

# 五、预测新图像

# 1. 加载和预处理新图像
img = cv2.imread('new_digit.png', cv2.imread_grayscale)
img_resized = cv2.resize(img, (28, 28))
img_flattened = img_resized.flatten()
img_normalized = img_flattened / 255.0
img_standardized = scaler.transform([img_normalized])
prediction = grid_search.predict(img_standardized)
print(f"predicted class: {prediction[0]}")
  • 数据准备:数据准备是整个过程的基础。如果数据质量不好,后续的模型训练和评估都可能会出问题。mnist 数据集很好用,因为它已经预处理好了。
  • 特征提取:标准化有助于确保模型不会被某些特征的数量级所主导。它让所有特征在同一个尺度上,更加公平地影响模型。
  • 模型训练:svm 的目标是找到一个最佳的决策边界,将不同类别的样本分开。c 参数可以调节模型的复杂度,适当的 c 值可以避免过拟合或欠拟合。参数调优是提高模型性能的重要步骤。
  • 模型评估:评估模型就像考试后的成绩单,不仅要看总分(准确率),还要看单科成绩(精确率、召回率等)。混淆矩阵对分析模型的分类能力特别有用,能看出哪些类别容易混淆。可视化结果能直观地看到模型的预测效果,特别是可以发现哪些图像被错误分类,并分析其原因。
  • 预测新图像:预测新图像时,需要将图像转换为与训练数据相同的格式。这包括调整图像大小、展平成向量、归一化和标准化。这样,模型就可以理解并进行预测了。

总结 

支持向量机(svm)进行图像识别的完整过程,包括从获取并可视化mnist数据集、进行数据标准化、划分训练和测试集、通过网格搜索优化svm模型、评估模型性能到预测新图像的各个步骤,并在代码中添加了调试输出和计时器以便更好地跟踪和优化整个过程。

(0)

相关文章:

  • Pandas如何提取非空行值

    Pandas如何提取非空行值

    在做数据处理的时候,会遇到要提取表格中,某一列的值不为空的行,我们可以通过pandas来轻松处理。具体步骤如下所示:一、创建表格import numpy as ... [阅读全文]
  • Pycharm中配置使用Anaconda的虚拟环境进行项目开发的图文教程

    一、检查torch环境今天在一台电脑上跑环境的时候,发现已经装了pytorch了,但是运行没有用。提示报错:oserror: [winerror 126] 找不到指定的模块。 er…

    2024年09月27日 开发工具
  • Pycharm使用CV2的详细图文教程

    1、windows下已经安装好python3以及opencv22、安装并打开pycharm环境中装好的包就能显示出来了,就可以去调用cv2的接口了总结到此这篇关于pycharm使用…

    2024年10月11日 开发工具
  • Pycharm 常用插件推荐小结

    1. key promoter x如果让我给新手推荐一个 pycharm 必装插件,那一定是key promoter x。它就相当于一个快捷键管理大师,它时刻地在:教导你,当下你的…

    2024年11月06日 开发工具
  • Pycharm debug调试教程

    debug,就是对于结果不符合预期的程序,将程序执行的过程放慢甚至中途暂停,通过逐步排查中间变量或者输出以定位有故障的代码段的过程。这个过程可以看作是逐步调试程序的方法。当我们点击…

    2024年11月06日 开发工具
  • PyCharm基础调试的教程

    pycharm 是一款强大的 python 集成开发环境(ide),提供了丰富的调试工具,帮助开发者在代码中找到并解决问题。下面是我将详细介绍 pycharm 如何进行调试:一、断…

    2024年11月06日 开发工具

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com