P1-
1.tf.get_variable()的使用
2.tf.get_variable tf.placeholder 的区别
(好文)
前者存可训练的模型参数,后者是输入需feed。
3.tf中的tensor如何理解,既包含数据又包含op?
import tensorflow as tfa=tf.Variable(1)b=tf.constant(1) #定义变量a=1和常量1,并且定义a的自加运算aplus1和更新a的值得操作update"""aplus1=tf.add(a,b)update=tf.assign(a,aplus1)a=a.assign_add(b)#设置完变量之后,必须要对变量进行初始化工作,变量才能使用init=tf.global_variables_initializer()with tf.Session() as sess: sess.run(init) #运行初始化变量的计算 for i in range(10): #循环10次,查看a逐渐自加1的结果 #sess.run(update) #执行变量a的自加运算 print(sess.run(a)) #打印变量a也需要用session.run
4.tf.concat学习
只要明白axis的含义就很简单了。
5. tf.sequence_mask学习
(好文)
6. tf.cond学习
7.tf.expand_dims学习
8.tf实现cnn
9.tf.identity学习
10.tf.summary学习
11.tf中GraphKeys
12.tf.control_dependencies和tf.GraphKeys.UPDATE_OPS
13.python中栈和队列
可用列表实现
14.conda创建python虚拟环境
15.nohup和&的使用
16.关闭后台进程&
17.py中使用numpy计算各种距离
18.python二维列表赋值问题
19.pathlib库的Path类的使用
20.tf的日志记录
21.npz和npy文件
22.tf.transpose函数的用法讲解
23.ps命令查看进程启动时间和运行时间
ps -p PID -o lstart,etime
24.查看torch的GPU版本是否安装成功:
import torchprint(torch.cuda.is_available())
25.super.__init__()避免显式调用基类
26.ps命令