当前位置: 首页 > 编程日记 > 正文

10分钟搭建你的第一个图像识别模型 | 附完整代码

640?wx_fmt=jpeg

(图片由AI科技大本营付费下载自视觉中国)


作者 | Pulkit Sharma
译者 | 王威力
来源 | 数据派THU(ID:DatapiTHU)


【导读】本文介绍了图像识别的深度学习模型的建立过程,通过陈述实际比赛的问题、介绍模型框架和展示解决方案代码,为初学者提供了解决图像识别问题的基础框架。


序言


“几分钟就可以建立一个深度学习模型?训练就要花几个小时好吗!我甚至没有一台足够好的机器。”我听过无数次有抱负的数据科学家这样说,他们害怕在自己的机器上构建深度学习模型。


其实,你不必在谷歌或其他大型科技公司工作,就可以训练深度学习数据集。你完全可以用几分钟的时间从头搭建起你自己的神经网络,而不需要租谷歌的服务器。Fast.ai的学生花了18分钟设计出了用于ImageNet数据集的一个模型,接下来我将在本文中展示类似的方法。


深度学习是一个广泛的领域,所以我们会缩小我们的关注点在图像分类问题上。而且,我们将使用一个非常简单的深度学习架构来达到一个很好的准确率。


你可以将本文中的Python代码作为构建图像分类模型的基础,一旦你对这些概念有了很好的理解,可以继续编程,参加比赛、登上排行榜。


如果你刚开始深入学习,并且对计算机视觉领域着迷(谁不是呢?!)一定要看一看Computer Vision using Deep Learning的课程,它对这个酷炫的领域进行了全面的介绍,将为你未来进入这个巨大的就业市场奠定基础。


课程链接:

https://trainings.analyticsvidhya.com/courses/course-v1:AnalyticsVidhya+CVDL101+CVDL101_T1/about?utm_source=imageclassarticle&utm_ medium=blog


目录


01 什么是图像分类以及它的应用案例

02 设置图像数据结构

03 分解模型建立过程

04 设置问题定义并认识数据

05 建立图像分类模型的步骤

06 其他挑战


01 什么是图像分类以及它的应用案例


观察以下图片:


640?wx_fmt=jpeg


你应该可以马上就认出它——是一俩豪华车。退一步来分析一下你是如何得到这个结论的——你被展示了一张图片,然后你将它划分为“车”这个类别(在这个例子中)。简单来说,这个过程就是图像分类。


很多时候,图像会有许多个类别。手动检查并分类图像是一个非常繁琐的过程。尤其当问题变为对10000张甚至1000000张图片的时候,这个任务几乎不可能完成。所以如果我们可以将这个过程自动化的实现并快速的标记图像类别,这该有多大的用处啊。


自动驾驶汽车是一个图像分类在现实世界应用的很好的例子。为了实现自动驾驶,我们可以建立一个图像分类模型来识别道路上的各种物体,如车辆、人、移动物体等。我们将在接下来的部分中看到更多的应用,甚至在我们的身边就有许多的应用。


既然我们已经掌握了主题,那么让我们来深入研究一下如何构建图像分类模型,它的先决条件是什么,以及如何在Python中实现它。


02 设置图像数据结构


我们的数据集需要特殊的结构来解决图像分类问题。我们将在几个部分中看到这一点,但在往下走之前,请记住这些建议。


你应该建立两个文件夹,一个放训练集,另一个放测试集。训练集的文件夹里放一个csv文件和一个图像文件夹:


  • csv文件存储所有训练图片的图片名和它们对应的真实标签
  • 图像文件夹存储所有的训练图片


测试集文件夹中的csv文件和训练集文件夹中的csv文件不同,测试集文件夹中的csv文件只包含测试图像的图片名,不包括它们的真实标签。因为我们要通过训练训练集中的图片来对测试集中的图片进行预测。


如果你的数据集不是这样的格式,你需要进行转换,否则的话预测结果可能有错误。


640?wx_fmt=jpeg


03 分解模型搭建的过程


在我们研究Python代码之前,让我们先理解图像分类模型通常是如何设计的。可以将过程分为4个部分。每个步骤需要一定时间来执行:


  • 第1步:加载和预处理数据——30%时间
  • 第2步:定义模型架构——10%时间
  • 第3步:训练模型——50%时间
  • 第4步:评价模型表现——10%时间


接下来我会更详细地解释一下上面的每一个步骤。这一部分非常重要,因为并非所有模型都是在第一步构建的。你需要在每次迭代之后返回,对步骤进行微调,然后再次运行它。对基础概念有一个扎实的理解,对于加速整个过程将有很大的帮助。


1. 加载和预处理数据,所需时间:大约2-3分钟

就深度学习模型而言,数据非常关键。如果训练集中有大量的图像,你的图像分类模型也会有更大的可能实现更好的分类效果。此外,根据所用的框架不同,数据的维度不同,效果也不一样。


因此,对于关键的数据预处理这一步,我推荐大家浏览下面这篇文章,来对图像数据的预处理有一个更好的理解:


Basics of Image Processing in Python

https://www.analyticsvidhya.com/blog/2014/12/image-processing-python-basics/


但我们还没完全到数据预处理这一步,为了了解我们的数据在新的之前没见过的数据集中的表现(在预测测试集之前),我们需要先从训练集中划分出一部分为验证集。


简而言之,我们在训练集上训练模型然后在验证集上进行验证。如果我们对在验证集上的结果满意,就可以用来预测测试集的数据。


2. 建立模型框架,所需时间:大约1分钟定义这个框架


这是深度学习模型建立过程中的另一个重要的步骤。在这个过程中,需要思考这样几个问题:


  • 需要多少个卷积层?
  • 每一层的激活函数是什么?
  • 每一层有多少隐藏单元?


还有其他一些问题。但这些基本上是模型的超参数,它们对预测结果起着重要作用。


如何确定这些超参的值?好问题!一个方法是根据现有的研究选择这些值。另一个想法是不断尝试这些值,直到找到最好的,但这可能是一个非常耗时的过程。

3. 训练模型,所需时间:大概5分钟,来进行模型的结构的学习


对模型训练,我们需要:


  • 训练图像和它们的真实标签。
  • 验证集图像和其真实标签。(我们只用验证集的标签进行模型评估,不用于训练)


我们还需要定义迭代次数(epoch)。开始阶段,我们训练10次(你可以再更改)。


4. 评估模型表现,所需时间:1分钟


最后,我们加载测试数据(图像)并完成预处理步骤。然后我们使用训练模型预测这些图像的类别。


640?wx_fmt=jpeg


04 设置问题定义并认识数据


我们将尝试一个非常酷的挑战来理解图像分类。我们需要建立一个模型,可以对给定的图像进行分类(衬衫、裤子、鞋子、袜子等)。这实际上是许多电子商务零售商面临的一个问题,这使得它成为一个更有趣的计算机视觉问题。


这个挑战被称为“识别服装”,是我们在数据黑客平台上遇到的实践问题之一。你必须注册并从上面的链接下载数据集。


“识别服装”比赛链接:

https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-apparels/


数据黑客平台:

https://datahack.analyticsvidhya.com/


640?wx_fmt=jpeg


一共有70000图像(28x28维),其中60000来自训练集,10000来自测试集。训练图像已经预先被打上了衣服类别的标签,一共10个类别。测试集没有标签。这个比赛是对测试集的图像进行识别。


我们将在Google Colab搭建模型,因为它提供免费的GPU。


Google Colab:

https://colab.research.google.com/


05 建立图像分类模型的步骤


接下来是时候展示你的Python技巧啦,最终我们到了执行阶段!


主要步骤如下:


  • 第1步:设置Google Colab
  • 第2步:导入库
  • 第3步:导入数据预处理数据(3分钟)
  • 第4步:设置验证集
  • 第5步:定义模型结构(1分钟)
  • 第6步:训练模型(5分钟)
  • 第7步:预测(1分钟)


下面详细介绍以上步骤。


1. 设置Google Colab


因为我们将从Google Drive link导入数据,我们需要在Google Colab notebook上增加几条代码。新建Python3 notebook,写下下面的代码:

!pip install PyDrive


这一步是安装PyDrive。下面导入需要的库:

import os
from pydrive.auth import GoogleAuth
from pydrive.drive import GoogleDrive
from google.colab import auth
from oauth2client.client import GoogleCredentials


下面创建drive变量访问Google Drive:

auth.authenticate_user()
gauth = GoogleAuth()
gauth.credentials = GoogleCredentials.get_application_default()
drive = GoogleDrive(gauth)


需要用Google Drive上传文件的ID来下载数据集:


download = drive.CreateFile({'id': '1BZOv422XJvxFUnGh-0xVeSvgFgqVY45q'})


把id的部分替换为你的文件夹的ID。接下来将下载文件夹并解压。


download.GetContentFile('train_LbELtWX.zip')
!unzip train_LbELtWX.zip


每次启动notebook都需要运行以上代码。


2. 导入模型所需的库

import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.utils import to_categorical
from keras.preprocessing import image
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from keras.utils import to_categorical
from tqdm import tqdm


3. 接下来是数据导入和数据预处理

train = pd.read_csv('train.csv')



接下来,我们将读入训练集,存储为list,最终转换为numpy array。


# We have grayscale images, so while loading the images we will keep grayscale=True, if you have RGB images, you should set grayscale as False
train_image = []
for i in tqdm(range(train.shape[0])):
    img = image.load_img('train/'+train['id'][i].astype('str')+'.png', target_size=(28,28,1), grayscale=True)
    img = image.img_to_array(img)
    img = img/255
    train_image.append(img)
X = np.array(train_image)


这是一个多分类问题(10个类别),需要对标签变量进行one-hot编码。

y=train['label'].values
y = to_categorical(y)


4. 从训练集中划分验证集

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=42, test_size=0.2)


5. 定义模型结构


我们将建立一个简单的结构,有2个卷积层,一个隐藏层一个输出层。

model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3),activation='relu',input_shape=(28,28,1)))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))


接下来编译模型。

model.compile(loss='categorical_crossentropy',optimizer='Adam',metrics=['accuracy'])


6. 训练模型


在这一步,我们将训练训练集的数据,在验证集上进行验证。

model.fit(X_train, y_train, epochs=10, validation_data=(X_test, y_test))


7. 预测


我们将首先遵循处理训练数据集时执行的步骤。加载测试图像并预测分类结果,用model.predict_classes()函数预测它们的类。


download = drive.CreateFile({'id': '1KuyWGFEpj7Fr2DgBsW8qsWvjqEzfoJBY'})
download.GetContentFile('test_ScVgIM0.zip')
!unzip test_ScVgIM0.zip


首先导入测试集:

test = pd.read_csv('test.csv')


接下来,读于数据并存储测试集:


test_image = []
for i in tqdm(range(test.shape[0])):
    img = image.load_img('test/'+test['id'][i].astype('str')+'.png', target_size=(28,28,1), grayscale=True)
    img = image.img_to_array(img)
    img = img/255
    test_image.append(img)
test = np.array(test_image)


# making predictions
prediction = model.predict_classes(test)


还需要新建一个提交文件夹,用来上传DataHack平台。

download = drive.CreateFile({'id': '1z4QXy7WravpSj-S4Cs9Fk8ZNaX-qh5HF'})
download.GetContentFile('sample_submission_I5njJSF.csv')


# creating submission file
sample = pd.read_csv('sample_submission_I5njJSF.csv')
sample['label'] = prediction
sample.to_csv('sample_cnn.csv', header=True, index=False)


下载sample_cnn.csv文件并上传到比赛的页面,生成你的排名。这提供了一个帮助你开始解决图像分类问题的基础方案。


你可以尝试调整超参数和正则化来提高模型效果。也可以通过阅读下面这篇文章来理解调参的细节。


A Comprehensive Tutorial to learn Convolutional Neural Networks from Scratch
https://www.analyticsvidhya.com/blog/2018/12/guide-convolutional-neural-network-cnn/

06 开启一个新的挑战


640?wx_fmt=png


让我们尝试在其他的数据集进行测试。这部分,我们将解决Identify the Digits上的这个问题。


Identify the Digits比赛链接:

https://datahack.analyticsvidhya.com/contest/practice-problem-identify-the-digits/


在你往下看之前,请尝试自己来解决这个挑战。你已经收获了解决问题的工具,只需要使用它们。当你遇到困难的时候可以再回来检查你的过程和结果。


在这个挑战中,我们需要识别给定图像中的数字。一共有70000张图片,49000张训练图像有标签,剩下的21000张为测试图片无标签。


准备好了吗?好!打开新的Python3 notebook,运行下面的代码:

# Setting up Colab
!pip install PyDrive


import os
from pydrive.auth import GoogleAuth
from pydrive.drive import GoogleDrive
from google.colab import auth
from oauth2client.client import GoogleCredentials


auth.authenticate_user()
gauth = GoogleAuth()
gauth.credentials = GoogleCredentials.get_application_default()
drive = GoogleDrive(gauth)


# Replace the id and filename in the below codes
download = drive.CreateFile({'id': '1ZCzHDAfwgLdQke_GNnHp_4OheRRtNPs-'})
download.GetContentFile('Train_UQcUa52.zip')
!unzip Train_UQcUa52.zip


# Importing libraries
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.utils import to_categorical
from keras.preprocessing import image
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from keras.utils import to_categorical
from tqdm import tqdm


train = pd.read_csv('train.csv')


# Reading the training images
train_image = []
for i in tqdm(range(train.shape[0])):
    img = image.load_img('Images/train/'+train['filename'][i], target_size=(28,28,1), grayscale=True)
    img = image.img_to_array(img)
    img = img/255
    train_image.append(img)
X = np.array(train_image)


# Creating the target variable
y=train['label'].values
y = to_categorical(y)


# Creating validation set
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=42, test_size=0.2)


# Define the model structure
model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3),activation='relu',input_shape=(28,28,1)))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))


# Compile the model
model.compile(loss='categorical_crossentropy',optimizer='Adam',metrics=['accuracy'])


# Training the model
model.fit(X_train, y_train, epochs=10, validation_data=(X_test, y_test))


download = drive.CreateFile({'id': '1zHJR6yiI06ao-UAh_LXZQRIOzBO3sNDq'})
download.GetContentFile('Test_fCbTej3.csv')


test_image = []
for i in tqdm(range(test_file.shape[0])):
    img = image.load_img('Images/test/'+test_file['filename'][i], target_size=(28,28,1), grayscale=True)
    img = image.img_to_array(img)
    img = img/255
    test_image.append(img)
test = np.array(test_image)


prediction = model.predict_classes(test)


download = drive.CreateFile({'id': '1nRz5bD7ReGrdinpdFcHVIEyjqtPGPyHx'})
download.GetContentFile('Sample_Submission_lxuyBuB.csv')


sample = pd.read_csv('Sample_Submission_lxuyBuB.csv')
sample['filename'] = test_file['filename']
sample['label'] = prediction
sample.to_csv('sample.csv', header=True, index=False)


在练习题页面上提交这个文件,你会得到一个相当不错的准确率。这是一个好的开端,但总有改进的余地。继续肝,看看你是否可以改进我们的基本模型。


尾声


谁说深度学习模型需要数小时或数天的训练。我的目的是展示你可以在双倍快速的时间内想出一个相当不错的深度学习模式。你应该接受类似的挑战,并尝试从你的终端编码它们。什么都比不上通过实践来学习!


顶尖的数据科学家和分析师甚至在黑客比赛开始之前就已经准备好了这些代码。他们使用这些代码在深入详细分析之前提前提交。先给出基准解决方案,然后使用不同的技术改进模型。


原文标题:

Build your First Image Classification Model in just 10 Minutes!

原文链接:

https://www.analyticsvidhya.com/blog/2019/01/build-image-classification-model-10-minutes/

译者:王威力,求职狗,在香港科技大学学习大数据科技。感觉数据科学很有难度,也很有意思,还在学(tu)习(tou)中。一个人肝不动的文献,follow大佬一起肝。


你觉得这篇文章有用吗?欢迎给编辑们留言,以提供给大家更优质的内容。

(*本文为 AI科技大本营转载文章,转载请联系作者)

精彩推荐


2019 中国大数据技术大会(BDTC)历经十一载,再度火热来袭!豪华主席阵容及百位技术专家齐聚,15 场精选专题技术和行业论坛,超强干货+技术剖析+行业实践立体解读,深入解析热门技术在行业中的实践落地。【早鸟票】【特惠学生票】限时抢购,扫码了解详情!


640?wx_fmt=png

推荐阅读

  • 阿里飞天大数据&飞天AI平台“双生”系统正式发布,9大全新数据产品集中亮相

  • 阿里披露AI完整布局,飞天AI平台首次亮相

  • 解决掉这些痛点和难点,让知识图谱不再是“噱头”

  • 程序员因接外包坐牢 456 天!两万字揭露心酸经历

  • 11月4日,上海开源基础设施峰会,不见不散!

  • 限时早鸟票 | 2019 中国大数据技术大会(BDTC)超豪华盛宴抢先看!

  • Pandas中第二好用的函数 | 优雅的Apply

  • 阿里开源物联网操作系统 AliOS Things 3.0 发布,集成平头哥 AI 芯片架构!

  • 雷声大雨点小:Bakkt「见光死」了吗?


640?wx_fmt=png

你点的每个“在看”,我都认真当成了喜欢

相关文章:

Rancher 2.2.2 发布,优化 Kubernetes 集群运维

开发四年只会写业务代码,分布式高并发都不会还做程序员? >>> Rancher 2.2.2 发布了。Rancher 是一个开源的企业级 Kubernetes 平台,可以管理所有云上、所有发行版、所有 Kubernetes集群,解决了生产环境中企业用户可能面…

EXP/EXPDP, IMP/IMPDP应用

2019独角兽企业重金招聘Python工程师标准>>> EXP/EXPDP, IMP/IMPDP应用 exp name/pwddbname filefilename.dmp tablestablename rowsy indexesn triggersn grantsn $ sqlplus username/passwordhostname:port/SERVICENAME OR $ sqlplus username Enter password:…

微软语音AI技术与微软听听文档小程序实践 | AI ProCon 2019

演讲嘉宾 | 赵晟、张鹏整理 | 伍杏玲来源 | CSDN(ID:CSDNnews)【导语】9 月 7 日,在CSDN主办的「AI ProCon 2019」上,微软(亚洲)互联网工程院人工智能语音团队首席研发总监赵晟、微软&#xff0…

C++11中std::condition_variable的使用

<condition_variable>是C标准程序库中的一个头文件&#xff0c;定义了C11标准中的一些用于并发编程时表示条件变量的类与方法等。条件变量是并发程序设计中的一种控制结构。多个线程访问一个共享资源(或称临界区)时&#xff0c;不但需要用互斥锁实现独享访问以避免并发错…

docker基础文档(链接,下载,安装)

一、docker相关链接1.docker中国区官网(包含部分中文文档&#xff0c;下载安装包&#xff0c;镜像加速器)&#xff1a;https://www.docker-cn.com/2.docker官方镜像仓库&#xff1a;https://cloud.docker.com/3.docker下载&#xff1a;https://www.docker-cn.com/community-edi…

一个JS对话框,可以显示其它页面,

还不能自适应大小 garyBox.js // JavaScript Document// gary 2014-3-27// 加了 px 在google浏览器没加这个发现设置width 和height没有用 //gary 2014-3-27 //实在不会用那些JS框架&#xff0c;自己弄个&#xff0c;我只是想要个可以加载其它页面的对话框而以,这里用了别人的…

只需4秒,这个算法就能鉴别你的LV是真是假

&#xff08;图片付费下载自视觉中国&#xff09;导语&#xff1a;假冒奢侈品制造这个屡禁不止的灰色产业&#xff0c;每年给正品商家和消费者造成上千亿的损失&#xff0c;对企业和消费者造成伤害。作为全球奢侈品巨头&#xff0c;LVMH 对假冒奢侈品的打击十分重视。LVMH 其旗…

概率论中伯努利分布(bernoulli distribution)介绍及C++11中std::bernoulli_distribution的使用

Bernoulli分布(Bernoulli distribution)&#xff1a;是单个二值随机变量的分布。它由单个参数∈[0,1]&#xff0c;给出了随机变量等于1的概率。它具有如下的一些性质&#xff1a;P(x1) P(x0)1-P(xx) x(1-)1-xEx[x] Varx(x) (1-)伯努力分布(Bernoulli distribution&#xff0c;又…

关于View测量中的onMeasure函数

在自定义View中我们通常会重写onMeasure&#xff0c;下面来说说这个onMeasure有什么作用 onMeasure主要用于对于View绘制时进行测量 Override protected void onMeasure(int widthMeasureSpec, int heightMeasureSpec) {super.onMeasure(widthMeasureSpec, heightMeasureSpec);…

zabbix二次开发之从mysql取值在运维平台js图表展现

前沿&#xff1a;集群控制平台已经要慢慢的灰度上线了&#xff0c;出问题的时候&#xff0c;才找点bug&#xff0c;时间有点空闲。正好看了下zabbix的数据库&#xff0c;产生了自己想做一套能更好的展现zabbix的页面。更多内容请到我的个人的博客站点&#xff0c;blog.xiaorui.…

概率论中高斯分布(正态分布)介绍及C++11中std::normal_distribution的使用

高斯分布&#xff1a;最常用的分布是正态分布(normal distribution)&#xff0c;也称为高斯分布(Gaussian distribution)&#xff1a;正态分布N(x;μ,σ2)呈现经典的”钟形曲线”的形状&#xff0c;其中中心峰的x坐标由μ给出&#xff0c;峰的宽度受σ控制。正态分布由两个参数…

AI落地遭“卡脖子”困境:为什么说联邦学习是解决良方?

作者 | Just出品 | AI科技大本营&#xff08;ID:rgznai100&#xff09;毋庸置疑&#xff0c;在业界对人工智能&#xff08;AI&#xff09;应用落地备受期待的时期&#xff0c;数据这一重要支点却越来越成为一个“卡脖子”的难题。AI落地需要数据来优化模型效果&#xff0c;但大…

Linux下截取指定时间段日志并输出到指定文件

sed -n /2019-04-22 16:10:/,/2019-04-22 16:20:/p log.log > bbb.txt 转载于:https://www.cnblogs.com/mrwuzs/p/10752037.html

nginx+keepalive主从双机热备+自动切换解决方案

环境采集cenots 6.3 64位迷你安装&#xff0c;因为安装前&#xff0c;你需要做一些工作yum install -y make wget如果你愿意可以更新下系统&#xff0c;更换下yum源.1.安装keepalive官方最新版 keepalived-1.2.7tar zxvf keepalived-1.2.7.tar.gzcd keepalived-1.2.7在此之前。…

概率论中指数分布介绍及C++11中std::exponential_distribution的使用

指数分布&#xff1a;在深度学习中&#xff0c;我们经常会需要一个在x0点处取得边界点(sharp point)的分布。为了实现这一目的&#xff0c;我们可以使用指数分布(exponential distribution)&#xff1a; p(x;λ) λlx≥0exp(-λx)指数分布使用指示函数(indicator function) lx≥…

肖仰华:知识图谱构建的三要素、三原则和九大策略 | AI ProCon 2019

演讲嘉宾 | 肖仰华&#xff08;复旦大学教授、博士生导师&#xff0c;知识工场实验室负责人&#xff09; 编辑 | Jane 出品 | AI科技大本营&#xff08;ID&#xff1a;rgznai100&#xff09; 近两年&#xff0c;知识图谱技术得到了各行各业的关注&#xff0c;无论是企业公司还…

Docker mongo副本集环境搭建

1、MongoDB Docker 镜像安装 docker pull mongo 2、Docker容器创建 MongoDB Docker 容器创建有以下几个问题&#xff1a; 1- MongoDB 容器基本创建方法和数据目录挂载 2- MongoDB 容器的数据迁移 3- MongoDB 设置登录权限问题docker run -p 27017:27017 -v <LocalDirectoryP…

菜鸟学习HTML5+CSS3(一)

主要内容&#xff1a; 1.新的文档类型声明&#xff08;DTD&#xff09; 2.新增的HTML5标签 3.删除的HTML标签 4.重新定义的HTML标签 一、新的文档类型声明&#xff08;DTD&#xff09; HTML 5的DTD声明为&#xff1a;<!doctype html>、<!DOCTYPE html>、<!DOCTY…

激活函数之logistic sigmoid函数介绍及C++实现

logistic sigmoid函数&#xff1a;logistic sigmoid函数通常用来产生Bernoulli分布中的参数&#xff0c;因为它的范围是(0,1)&#xff0c;处在的有效取值范围内。logisitic sigmoid函数在变量取绝对值非常大的正值或负值时会出现饱和(saturate)现象&#xff0c;意味着函数会变得…

NLP重要模型详解,换个方式学(内附资源)

&#xff08;图片有AI科技大本营付费下载自视觉中国&#xff09;作者 | Jaime Zornoza&#xff0c;马德里技术大学译者 | 陈之炎校对 | 王威力编辑 | 黄继彦来源 | 数据派THU&#xff08;ID&#xff1a;DatapiTHU&#xff09;【导语】本文带你以前所未有的方式了解深度学习神经…

大闸蟹的OO第二单元总结

OO的第二单元是讲多线程的协作与控制&#xff0c;三次作业分别为FAFS电梯&#xff0c;ALS电梯和三部需要协作的电梯。三次作业由浅入深&#xff0c;让我们逐渐理解多线程的工作原理和运行状况。 第一次作业&#xff1a; 第一次作业是傻瓜电梯&#xff0c;也就是完全不需要考虑捎…

构建ASP.NET MVC4+EF5+EasyUI+Unity2.x注入的后台管理系统(31)-MVC使用RDL报表

原文:构建ASP.NET MVC4EF5EasyUIUnity2.x注入的后台管理系统&#xff08;31&#xff09;-MVC使用RDL报表这次我们来演示MVC3怎么显示RDL报表,坑爹的微软把MVC升级到5都木有良好的支持报表,让MVC在某些领域趋于短板 我们只能通过一些方式来使用rdl报表。 Razor视图不支持asp.net…

18段代码带你玩转18个机器学习必备交互工具

&#xff08;图片有AI科技大本营付费下载自视觉中国&#xff09;作者 | 曼纽尔阿米纳特吉&#xff08;Manuel Amunategui&#xff09;、迈赫迪洛佩伊&#xff08;Mehdi Roopaei&#xff09;来源 | 大数据&#xff08;ID&#xff1a;hzdashuju&#xff09;【导读】本文简要介绍将…

激活函数之ReLU/softplus介绍及C++实现

softplus函数(softplus function)&#xff1a;ζ(x)ln(1exp(x)).softplus函数可以用来产生正态分布的β和σ参数&#xff0c;因为它的范围是(0,∞)。当处理包含sigmoid函数的表达式时它也经常出现。softplus函数名字来源于它是另外一个函数的平滑(或”软化”)形式&#xff0c;这…

windows server 2012 用sysdba登录报错 ORA-01031

报错显示&#xff1a;C:\Users\Administrator>sqlplus / as sysdba SQL*Plus: Release 11.2.0.1.0 Production on 星期三 4月 24 09:09:33 2019 Copyright (c) 1982, 2010, Oracle. All rights reserved. ERROR:ORA-01031: 权限不足 请输入用户名: 1、查看本地用户和组确认权…

[SignalR]初步认识以及安装

原文:[SignalR]初步认识以及安装1.什么是ASP.NET SignalR&#xff1f; ASP .NET SignalR是一个 ASP .NET 下的类库&#xff0c;可以在ASP .NET 的Web项目中实现实时通信。什么是实时通信的Web呢&#xff1f;就是让客户端&#xff08;Web页面&#xff09;和服务器端可以互相通知…

CUDA Samples:Vector Add

以下CUDA sample是分别用C和CUDA实现的两向量相加操作&#xff0c;参考CUDA 8.0中的sample:C:\ProgramData\NVIDIA Corporation\CUDA Samples\v8.0\0_Simple&#xff0c;并对其中使用到的CUDA函数进行了解说&#xff0c;各个文件内容如下&#xff1a;common.hpp:#ifndef FBC_CU…

你和人工智能的对话,正在被人工收听

&#xff08;图片有AI科技大本营付费下载自视觉中国&#xff09;作者 | 周晶晶编辑 | 阿伦来源 | 燃财经&#xff08;ID:rancaijing&#xff09;如今&#xff0c;智能设备越来越多地出现在每个人的生活中&#xff0c;在享受它们带来的便利时&#xff0c;很多人或许没有意识到&a…

python数据结构与算法总结

python常用的数据结构与算法就分享到此处&#xff0c;本月涉及数据结构与算法的内容有如下文章&#xff1a; 《数据结构和算法对python意味着什么&#xff1f;》 《顺序表数据结构在python中的应用》 《python实现单向链表数据结构及其基本方法》 《python实现单向循环链表数据…

自定义classloader中的接口调用

2019独角兽企业重金招聘Python工程师标准>>> 注意其中转型异常的描述&#xff0c;左边声明和强转括号内都是appclassloader加载的&#xff0c;而让自定义加载类的接口也由appclassloader加载&#xff0c;所以转型成功 转载于:https://my.oschina.net/heatonn1/blog/…