当前位置: 首页 > 编程日记 > 正文

『TensorFlow』数据读取类_data.Dataset

一、资料

参考原文:

TensorFlow全新的数据读取方式:Dataset API入门教程

API接口简介:

TensorFlow的数据集

二、背景

注意,在TensorFlow 1.3中,Dataset API是放在contrib包中的:

tf.contrib.data

而在TensorFlow 1.4中,Dataset API已经从contrib包中移除,变成了核心API的一员:

tf.data.

此前,在TensorFlow中读取数据一般有两种方法:

  • 使用placeholder读内存中的数据
  • 使用queue读硬盘中的数据(这种方式,可以参考原作者之前的一篇文章:十图详解TensorFlow数据读取机制

Dataset API同时支持从内存和硬盘的读取,相比之前的两种方法在语法上更加简洁易懂。此外,如果想要用到TensorFlow新出的Eager模式,就必须要使用Dataset API来读取数据。

三、基本使用

1、一维数据集示范基本使用

Google官方给出的Dataset API中的类图:

这里写图片描述

在初学时,我们只需要关注两个最重要的基础类:Dataset和Iterator。

Dataset可以看作是相同类型“元素”的有序列表。在实际使用时,单个“元素”可以是向量,也可以是字符串、图片,甚至是tuple或者dict。

数据集对象实例化:

dataset = tf.data.Dataset.from_tensor_slices(数据)

迭代器对象实例化(非Eager模式下):

iterator = dataset.make_one_shot_iterator()

one_element = iterator.get_next()

综合起来效果如下,

import tensorflow as tf 
import numpy as np dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))
iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session() as sess:for i in range(5):print(sess.run(one_element))

输出:1.0  2.0  3.0  4.0  5.0

读取结束异常:

如果一个dataset中元素被读取完了,再尝试sess.run(one_element)的话,就会抛出tf.errors.OutOfRangeError异常,这个行为与使用队列方式读取数据的行为是一致的。

在实际程序中,可以在外界捕捉这个异常以判断数据是否读取完,综合以上三点请参考下面的代码:

dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")

输出:1.0  2.0  3.0  4.0  5.0 end!

2、高维数据集使用

tf.data.Dataset.from_tensor_slices真正作用是切分传入Tensor的第一个维度,生成相应的dataset,即第一维表明数据集中数据的数量,之后切分batch等操作都以第一维为基础。

dataset = tf.data.Dataset.from_tensor_slices(np.random.uniform(size=(5, 2)))

传入的数值是一个矩阵,它的形状为(5, 2),tf.data.Dataset.from_tensor_slices就会切分它形状上的第一个维度,最后生成的dataset中一个含有5个元素,每个元素的形状是(2, ),即每个元素是矩阵的一行。

dataset = tf.data.Dataset.from_tensor_slices(np.random.uniform(size=(5, 2)))iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")
[0.09787406 0.71672957]
[0.25681324 0.81974072]
[0.35186046 0.39362398]
[0.75228199 0.6534702 ]
[0.39695169 0.9341708 ]
end!

3、字典使用

在实际使用中,我们可能还希望Dataset中的每个元素具有更复杂的形式,如每个元素是一个Python中的元组,或是Python中的词典。例如,在图像识别问题中,一个元素可以是{“image”: image_tensor, “label”: label_tensor}的形式,这样处理起来更方便,

注意,image_tensor、label_tensor和上面的高维向量一致,第一维表示数据集中数据的数量。相较之下,字典中每一个key值可以看做数据的一个属性,value则存储了所有数据的该属性值。

dataset = tf.data.Dataset.from_tensor_slices({"a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]),                                       "b": np.random.uniform(size=(5, 2))})iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")
{'a': 1.0, 'b': array([0.31721037, 0.33378767])}
{'a': 2.0, 'b': array([0.99221946, 0.65894961])}
{'a': 3.0, 'b': array([0.98405468, 0.11478854])}
{'a': 4.0, 'b': array([0.95311317, 0.57432678])}
{'a': 5.0, 'b': array([0.46067428, 0.19716722])}
end!

4、复杂的tuple组合数据

类似的,可以使用组合的特征进行拼接,

dataset = tf.data.Dataset.from_tensor_slices((np.array([1.0, 2.0, 3.0, 4.0, 5.0]), np.random.uniform(size=(5, 2)))
)iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")
(1.0, array([6.55877282e-04, 6.63244735e-01]))
(2.0, array([0.04756927, 0.44968581]))
(3.0, array([0.97841076, 0.06465231]))
(4.0, array([0.46639246, 0.39146086]))
(5.0, array([0.61085016, 0.61609538]))
end!

四、数据集处理方法

Dataset支持一类特殊的操作:Transformation。一个Dataset通过Transformation变成一个新的Dataset。通常我们可以通过Transformation完成数据变换,打乱,组成batch,生成epoch等一系列操作。

常用的Transformation有:

  • map
  • batch
  • shuffle
  • repeat

map

和python中的map类似,map接收一个函数,Dataset中的每个元素都会被当作这个函数的输入,并将函数返回值作为新的Dataset,

dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))dataset = dataset.map(lambda x: x + 1) # <-----iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")

输出:2.0  3.0  4.0  5.0  6.0  end!

注意map函数可以使用num_parallel_calls参数加速(第五部分有介绍)。

batch

batch就是将多个元素组合成batch,如上所说,按照输入元素第一个维度,

dataset = tf.data.Dataset.from_tensor_slices({"a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]),                                       "b": np.random.uniform(size=(5, 2))})dataset = dataset.batch(2) # <-----iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")
{'a': array([1., 2.]), 'b': array([[0.87466134, 0.21519021], [0.6123372 , 0.95722733]])}
{'a': array([3., 4.]), 'b': array([[0.76964374, 0.22445015], [0.08313089, 0.60531841]])}
{'a': array([5.]), 'b': array([[0.37901654, 0.3955096 ]])}
end!

shuffle

shuffle的功能为打乱dataset中的元素,它有一个参数buffersize,表示打乱时使用的buffer的大小,建议舍的不要太小,一般是1000:

dataset = tf.data.Dataset.from_tensor_slices({"a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]),                                       "b": np.random.uniform(size=(5, 2))})dataset = dataset.shuffle(buffer_size=5) # <-----iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")
{'a': 3.0, 'b': array([0.82048268, 0.39821839])}
{'a': 4.0, 'b': array([0.42775421, 0.36749283])}
{'a': 1.0, 'b': array([0.09588742, 0.01954797])}
{'a': 2.0, 'b': array([0.10992948, 0.24416772])}
{'a': 5.0, 'b': array([0.15447616, 0.09005545])}
end!

repeat

repeat的功能就是将整个序列重复多次,主要用来处理机器学习中的epoch,假设原先的数据是一个epoch,使用repeat(2)就可以将之变成2个epoch:

dataset = tf.data.Dataset.from_tensor_slices({"a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]),                                       "b": np.random.uniform(size=(5, 2))})dataset = dataset.repeat(2) # <-----iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session(config=config) as sess:try:while True:print(sess.run(one_element))except tf.errors.OutOfRangeError:print("end!")
{'a': 1.0, 'b': array([0.85180201, 0.1703507 ])}
{'a': 2.0, 'b': array([0.37874819, 0.81303628])}
{'a': 3.0, 'b': array([0.99560094, 0.56446562])}
{'a': 4.0, 'b': array([0.86341794, 0.69984075])}
{'a': 5.0, 'b': array([0.85026424, 0.74761098])}
{'a': 1.0, 'b': array([0.85180201, 0.1703507 ])}
{'a': 2.0, 'b': array([0.37874819, 0.81303628])}
{'a': 3.0, 'b': array([0.99560094, 0.56446562])}
{'a': 4.0, 'b': array([0.86341794, 0.69984075])}
{'a': 5.0, 'b': array([0.85026424, 0.74761098])}
end!

注意,如果直接调用repeat()的话,生成的序列就会无限重复下去,没有结束,因此也不会抛出tf.errors.OutOfRangeError异常。

五、模拟读入磁盘图片与对应label

考虑一个简单,但同时也非常常用的例子:读入磁盘中的图片和图片相应的label,并将其打乱,组成batch_size=32的训练样本,在训练时重复10个epoch

# 函数的功能时将filename对应的图片文件读进来,并缩放到统一的大小
def _parse_function(filename, label):image_string = tf.read_file(filename)image_decoded = tf.image.decode_image(image_string)image_resized = tf.image.resize_images(image_decoded, [28, 28])return image_resized, label# 图片文件的列表
filenames = tf.constant(["/var/data/image1.jpg", "/var/data/image2.jpg", ...])
# label[i]就是图片filenames[i]的label
labels = tf.constant([0, 37, ...])# 此时dataset中的一个元素是(filename, label)
dataset = tf.data.Dataset.from_tensor_slices((filenames, labels))# 此时dataset中的一个元素是(image_resized, label)
dataset = dataset.map(_parse_function)# 此时dataset中的一个元素是(image_resized_batch, label_batch)
dataset = dataset.shuffle(buffersize=1000).batch(32).repeat(10)

在这个过程中,dataset经历三次转变:

  • 运行dataset = tf.data.Dataset.from_tensor_slices((filenames, labels))后,dataset的一个元素是(filename, label)。filename是图片的文件名,label是图片对应的标签。
  • 之后通过map,将filename对应的图片读入,并缩放为28x28的大小。此时dataset中的一个元素是(image_resized, label)
  • 最后,dataset.shuffle(buffersize=1000).batch(32).repeat(10)的功能是:在每个epoch内将图片打乱组成大小为32的batch,并重复10次。最终,dataset中的一个元素是(image_resized_batch, label_batch),image_resized_batch的形状为(32, 28, 28, 3),而label_batch的形状为(32, ),接下来我们就可以用这两个Tensor来建立模型了。

help(tf.data.Dataset.map)

可见:

Help on function map in module tensorflow.python.data.ops.dataset_ops:map(self, map_func, num_parallel_calls=None)Maps `map_func` across this datset.Args:map_func: A function mapping a nested structure of tensors (havingshapes and types defined by `self.output_shapes` and`self.output_types`) to another nested structure of tensors.num_parallel_calls: (Optional.) A `tf.int32` scalar `tf.Tensor`,representing the number elements to process in parallel. If notspecified, elements will be processed sequentially.Returns:A `Dataset`.

由此可见map作为读取处理的关键步骤,是可以多线程加速的。

六、更多的Dataset创建方法

除了tf.data.Dataset.from_tensor_slices外,目前Dataset API还提供了另外三种创建Dataset的方式:

  • tf.data.TextLineDataset():这个函数的输入是一个文件的列表,输出是一个dataset。dataset中的每一个元素就对应了文件中的一行。可以使用这个函数来读入CSV文件。
  • tf.data.FixedLengthRecordDataset():这个函数的输入是一个文件的列表和一个record_bytes,之后dataset的每一个元素就是文件中固定字节数record_bytes的内容。通常用来读取以二进制形式保存的文件,如CIFAR10数据集就是这种形式。
  • tf.data.TFRecordDataset():顾名思义,这个函数是用来读TFRecord文件的,dataset中的每一个元素就是一个TFExample。

它们的详细使用方法可以参阅文档:Module: tf.data

七、更多的Iterator创建方法

在非Eager模式下,最简单的创建Iterator的方法就是通过dataset.make_one_shot_iterator()来创建一个one shot iterator。

除了这种one shot iterator外,还有三个更复杂的Iterator,即:

  • initializable iterator
  • reinitializable iterator
  • feedable iterator

initializable iterator方法要在使用前通过sess.run()来初始化,使用initializable iterator,可以将placeholder代入Iterator中,实现更为灵活的数据载入,实际上占位符引入了dataset对象创建中,我们可以通过feed来控制数据集合的实际情况。

limit = tf.placeholder(dtype=tf.int32, shape=[])dataset = tf.data.Dataset.from_tensor_slices(tf.range(start=0, limit=limit))iterator = dataset.make_initializable_iterator()
next_element = iterator.get_next()with tf.Session() as sess:sess.run(iterator.initializer, feed_dict={limit: 10})for i in range(10):value = sess.run(next_element)print(value)assert i == value

输出:0 1 2 3 4 5 6 7 8 9

initializable iterator还有一个功能:读入较大的数组。

在使用tf.data.Dataset.from_tensor_slices(array)时,实际上发生的事情是将array作为一个tf.constants保存到了计算图中。当array很大时,会导致计算图变得很大,给传输、保存带来不便。这时,我们可以用一个placeholder取代这里的array,并使用initializable iterator,只在需要时将array传进去,这样就可以避免把大数组保存在图里,示例代码为(来自官方例程):

# 从硬盘中读入两个Numpy数组
with np.load("/var/data/training_data.npy") as data:features = data["features"]labels = data["labels"]features_placeholder = tf.placeholder(features.dtype, features.shape)
labels_placeholder = tf.placeholder(labels.dtype, labels.shape)dataset = tf.data.Dataset.from_tensor_slices((features_placeholder, labels_placeholder))
iterator = dataset.make_initializable_iterator()
sess.run(iterator.initializer, feed_dict={features_placeholder: features,labels_placeholder: labels})

可见,在上面程序中,feed也遵循着类似字典一样的规则,创建两个占位符(keys),给data_holder去feed数据文件,给label_holder去feed标签文件。

reinitializable iterator和feedable iterator相比initializable iterator更复杂,也更加少用,如果想要了解它们的功能,可以参阅官方介绍,这里就不再赘述了。

八、总结

在非Eager模式下,Dataset中读出的一个元素一般对应一个batch的Tensor,我们可以使用这个Tensor在计算图中构建模型。

在Eager模式下,Dataset建立Iterator的方式有所不同,此时通过读出的数据就是含有值的Tensor,方便调试。

转载于:https://www.cnblogs.com/hellcat/p/8569651.html

相关文章:

出入口控制系统工程设计规范_[问答]连载77-控制系统之间如何时钟同步?

仪表小猪在控制系统中&#xff0c;趋势、报警、事件记录等都与时间相关&#xff0c;因此整个系统始终保持一个统一的时钟很关键。如果操作站和控制站时间不同步&#xff0c;操作员站上面显示的事件、趋势等也不能真正的反应出现场实际变化的时间&#xff0c;不能作为真实的历史…

分布式账本(Distributed ledger)

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 是一种在网络成员之间共享、复制和同步的数据库。分布式账本记录网络参与者之间的交易&#xff0c;比如资产或数据的交换。这种共享账本消除了调解不…

手动删除木马程序

1 ??? 2 这个蠢货竟然用360? (360杀毒太流氓&#xff0c;插件不可控&#xff0c;就是第一个要杀的木马) 一些基本的命令往往可以在保护网络安全上起到很大的作用,下面几条命令的作用就非常突出。 一、检测网络连接 如果你怀疑自己的计算机上被别人安装了木马,或者是中…

phpstorm如何同时打开两个文件夹_2分钟学会文件夹共享,化身办公室电脑大神

点击上方蓝色字体&#xff0c;关注我们身在职场或学校的你&#xff0c;还在用微信或QQ给办公室的小伙伴传文件吗&#xff1f;那你可真就out了&#xff0c;总结一下&#xff0c;微信或QQ传文件存在以下3个缺点。1、传输文件大小存在限制微信不能发送100MB以上的文件&#xff0c;…

Hdu_2063 过山车 -最大匹配(邻接表版)

题目&#xff1a;就是最大匹配了 /************************************************ Author :DarkTong Created Time :2016/8/1 12:53:27 File Name :Hdu2063.cpp *************************************************/#include <cstdio> #include <cstr…

“去中心化”为何意义重大?

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 互联网的前两个时代 在互联网的第一个时代–从20世纪80年代到21世纪初–互联网服务建立在由互联网社区控制的开放协议之上。这意味着&#xff0c;人…

一阶微分算子锐化图像_【动手学计算机视觉】第三讲:图像预处理之图像分割...

本讲完整代码>>前言图像分割是一种把图像分成若干个独立子区域的技术和过程。在图像的研究和应用中&#xff0c;很多时候我们关注的仅是图像中的目标或前景(其他部分称为背景)&#xff0c;它们对应图像中特定的、具有独特性质的区域。为了分割目标&#xff0c;需要将这些…

visual studio code 里调试运行 Python代码

最近对微软的visual studio code 挺感兴趣的&#xff0c;微软的跨平台开发工具。轻量简洁。 版本迭代的也挺快的&#xff0c;截止16年8月2日已经1.3.1版本了&#xff0c;功能也愈加完善。&#xff08;16年12月18日 已经&#xff0c;发到1.10.1版本了&#xff0c;更新非常频繁&a…

GridView单元格取值显示为nbsp;

在通过GridView取一个单元格&#xff08;cell&#xff09;的值时&#xff0c;数据库中为NULL&#xff0c;而页面上显示为空格。发现通过gridview.cell[i].text取出来的值为 &#xff0c;导致获取数据出现问题。 解决方法&#xff1a; 一、利用Server.HtmlDecode(string)进行转换…

什么是比特币?

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 比特币就是所谓的“加密货币”&#xff0c;这是一种完全以数据形式存在的数字资产。你存在银行的钱可能也是一堆数字&#xff0c;但这些数字等效于…

C程序设计-----第1次作业

一、 PTA作业。 在完成PTA作业的时候我没有认真读题。每次都是提交完整代码 6-1&#xff08;1&#xff09; 1 #include <stdio.h>2 3 //P等价于&#xff08;p&#xff09;还是等价于*&#xff08;p&#xff09;&#xff1f;4 5 int main(){6 int *p, a 3;7 p…

python画散点图对散点阴影扩充_Python金融应用之图表制作(三)

​NO.602020.04.06工欲善其事&#xff0c;必先利其器//- 前言 - 今天&#xff0c;小咖带大家使用Python制作申万行业PE和ROE的散点图&#xff1f;最终将得到以下效果&#xff1a;

List集合的去除重复性练习

package com.java.b.listdmeo.www; import java.util.ArrayList;import java.util.Iterator; import com.java.Student.www.Student; public class listtest { public static void main(String[] args) { //创建一个集合&#xff0c;该集合为List 集合 ArrayList listnew Arr…

区块链的安全软肋是什么?

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 今天我们来谈谈区块链的安全软肋。 作为比特币中的核心技术&#xff0c;在无法建立信任关系的互联网上&#xff0c;区块链技术依靠密码学和巧妙的分…

web service 项目 和 普通 web项目 的 区别

web service 面向的是开发者&#xff08;需要再次开发&#xff09; 普通web 面向的是用户&#xff08;直接使用&#xff09;转载于:https://www.cnblogs.com/zno2/p/5612024.html

selenium:学习资源

selenium中文版文档 http://www.selenium.org.cn/1203.html selenium 搜索功能&#xff1a; http://blog.csdn.net/qq_878799579/article/details/73321015 selenium 详细教程&#xff1a; http://www.cnblogs.com/yoyoketang/p/6123938.html 转载于:https://www.cnblogs.com/f…

node.js 验证路径有效性_怎样识别光伏谐波路径?试试这个算法

国网吉林省电力有限公司四平供电公司的研究人员韩绍禹、李新辉&#xff0c;在2019年第5期《电气技术》杂志上撰文指出(论文标题为“基于信息熵和节点导纳矩阵的光伏谐波路径初探”)&#xff0c;光伏电站的接入给电网注入一定谐波&#xff0c;同时也增加了电网谐波线损。本文针对…

区块链研发与运营

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 传统行业之所以会存在着每况愈下的情况发生&#xff0c;主要的原因还是在于运营方式的墨守成规&#xff0c;造成消费者缺乏了购买欲望和关注度&am…

mysql longtext可以存储多少文字_MySQL 四万字精华总结 + 面试100 问,和面试官扯皮绰绰有余(收藏系列)

作者&#xff1a;派大新 链接&#xff1a;https://juejin.im/post/5f0d4fadf265da22f3250eaa写在之前&#xff1a;不建议那种上来就是各种面试题罗列&#xff0c;然后背书式的去记忆&#xff0c;对技术的提升帮助很小&#xff0c;对正经面试也没什么帮助&#xff0c;有点东西的…

2018.3.15校内互测总结-点分治-线段树

这是曾来过咱们学校集训的一位大神出的~ T1 题目大意 给出一棵带边权的无根树&#xff0c;求树上前$k$大的路径的长度。 $1 \leq n \leq 200000$ 题解 想了一上午点分治&#xff0c;却发现只会$O(nlog^3n)$的...... 正解是二分第$k$大的权值&#xff0c;用点分治判断&#xff0…

EntityFramework Core 学习笔记 —— 创建模型

原文地址&#xff1a;https://docs.efproject.net/en/latest/modeling/index.html 前言&#xff1a; EntityFramework 使用一系列的约定来从我们的实体类细节创建模型。我们可以钦定一些额外的映射配置来添加、重写实体类的哪些细节应该被这些约定所发现。 这篇文章讲述了一些无…

使用docker-compose进行多节点部署

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 创建数据目录及多节点目录 mkdir -p ~/workmeta/EduEthereumServerDeploy/deploy_2/{node1,node2} > cd ~/workmeta/EduEthereumServerDeploy/de…

石头剪刀布python代码_我的第一个python程序,石头剪刀布猜拳游戏

从决定学习python到今天&#xff0c;已经过去了好1个月&#xff0c;买的几本书还没一本看完的&#xff0c;惭愧。 忙不是借口&#xff0c;是时候来点计划&#xff0c;来点坚持。写点什么吧&#xff0c;算是学习的记录&#xff0c;也是对自己的鞭策。 今天写一个猜字游戏&#x…

CATransform3DRotate 实现左右,上下翻转效果

CGFloat m34 800; CGFloat value &#xff1d; &#xff0d;40&#xff1b;//&#xff08;控制翻转角度&#xff09; CGPoint point CGPointMake(0.5, 0.5);//设定翻转时的中心点&#xff0c;0.5为视图layer的正中 CATransform3D transfrom CATransform3DIdentity; transfro…

[UWP小白日记-10]程序启动屏(ios解锁既视感)

[UWP小白日记-10]程序启动屏&#xff08;ios解锁既视感&#xff09; 原文:[UWP小白日记-10]程序启动屏&#xff08;ios解锁既视感&#xff09;讲一下 微软爸爸的开发者大会2016又暴了个表达式动画和Windows.UI.Composition的API&#xff0c;好叼的样子。官方示例库GitHub 目前是…

比特币:区块链的最基础实现

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 我并不是说比特币本身注定要失败。我所指的是&#xff0c;我认为区块链纯粹作为货币的实施注定远没有世界认为的那么成功。这包括诸如Litecoin和Das…

python工具使用笔记

1、pip pip是Python官方推荐的包管理工具&#xff0c;在doc界面直接使用pip或者pip3命令即可&#xff0c;例如安装gensim&#xff1a; C:\Users\kayan.sjc>pip3 install --upgrade gensim 2、python2代码转换python3工具2to3.py python3不兼容python2&#xff0c;有时候需要…

stm32 cubemx hal 工程中 微秒延迟 delay_us

参考的正点原子的代码 测试平台 stm32f429i-disco 配了一个gpio 时钟 gpio /* USER CODE BEGIN 0 */ typedef uint8_t u8; typedef uint32_t u32;u8 fac_us;void delay_init(u8 SYSCLK) {#if SYSTEM_SUPPORT_OS //?????? OS.u32 reload;#endifHAL_SYSTICK_CLKSourceConfi…

ps制作20种特效文字_ps技巧:给照片制作特效(刀光剑影)

哈喽大家好&#xff0c;一段时间没有更新了非常抱歉。现在努力日更&#xff0c;给大家提供干货学习。今天我们的ps课程是制作特效。大家会觉得很难&#xff0c;但是并不是这样的。大家跟着小编的教程走&#xff0c;反复练习就很快学会啦。接下来我们就开始进入今天的学习吧&…

如何创建一个最小的区块链

链客&#xff0c;专为开发者而生&#xff0c;有问必答&#xff01; 此文章来自区块链技术社区&#xff0c;未经允许拒绝转载。 这是我在一个外文网站上看到的一篇博文,作者通过50行代码写出了区块链的简化版本.麻雀虽小,但是五脏俱全.我觉得通过实践,这是了解区块链的一个好…