SlideShare ist ein Scribd-Unternehmen logo
1 von 71
Downloaden Sie, um offline zu lesen
TensorFlow深度學習講座	
By Mark Chang
簡介	
•  深度學習是什麼?	
•  深度學習的原理	
•  Tensorflow是什麼?
深度學習是什麼?
⼈人腦 vs 電腦	
8
<
:
3x + 2y + 5z = 7
5x + 1y + 8z = 9
9x + 4y + 3z = 14
⼈人腦 vs 電腦	
貨櫃船	
 機⾞車
⼈人腦 vs 電腦	
•  ⼈人腦優勢:	
–  影像、聲⾳音	
–  語⾔言	
–  ⾃自我意識(⾃自決⼒力)	
–  …	
•  電腦優勢:	
–  數學運算	
–  記憶(儲存)能⼒力	
–  …
深度學習	
•  ⼀一種機器學習的⽅方法	
•  ⽤用電腦模擬⼈人腦神經系統構造	
•  讓電腦學會⼈人腦可做的事
影像識別	
http://www.cs.toronto.edu/~fritz/absps/imagenet.pdf
藝術創作	
http://arxiv.org/abs/1508.06576
語意理解	
https://papers.nips.cc/paper/5021-distributed-representations-of-
words-and-phrases-and-their-compositionality.pdf
詩詞創作	
http://emnlp2014.org/papers/pdf/EMNLP2014074.pdf
打電動	
http://arxiv.org/pdf/1312.5602v1.pdf
深度學習可以做的事	
•  作畫	
•  寫詩	
•  開⾞車	
•  下棋	
•  ……
機器學習	
監督式學習	
Supervised Learning	
⾮非監督式學習	
Unsupervised Learning	
增強式學習	
Reinforcement Learning
監督式學習	
機器學習模型
Motor Scooter ship
ship
資料	
⼈人⼯工標記	
資料	
答案
⾮非監督式學習	
機器學習模型
Beijing is the capital of China.
As China's capital, Beijing is a large and vibrant city.
Tokyo is the capital of Japan.
As Japan’s capital, Tokyo is a large and vibrant city.
…….
資料	
結果
增強式學習	
機器學習模型環境	
訊息	
動作
機器學習	
監督式學習	
Supervised Learning	
⾮非監督式學習	
Unsupervised Learning	
增強式學習	
Reinforcement Learning	
深度學習	
Deep Learning
深度學習的原理
監督式機器學習	
訓練資料
 機器學習模型
 輸出值
正確答案
對答案
如果答錯了,
要修正模型
機器學習模型
測試資料
訓練
完成
輸出值
符號慣例	
訓練資料
全部:X , Y
單筆:x(i), y(i)
機器學習模型
h
模型參數
w
輸出值
h(X)
正確答案
Y
對答案
E(h(X),Y)
如果答錯了,
要修正模型
X
Y
邏輯迴歸(Logistic Regression)	
•  ⽤用Sigmoid曲線去逼近資料的分佈情形
訓練資料	
X	
   Y	
  
-0.47241379	 0
-0.35344828	 0
-0.30148276	 0
0.33448276	 1
0.35344828	 1
0.37241379	 1
0.39137931	 1
0.41034483	 1
0.44931034	 1
0.49827586	 1
0.51724138	 1
….	 ….
機器學習模型	
Sigmoid function h(x) =
1
1 + e (w0+w1x)
w0 + w1x < 0
h(x) ⇡ 0
w0 + w1x > 0
h(x) ⇡ 1
修正模型	
•  Error function : Cross Entropy
E(h(X), Y ) =
1
m
(
mX
i
y(i)
log(h(x(i)
)) + (1 y(i)
)log(1 h(x(i)
)))
h(x(i)
) ⇡ 0 and y(i)
= 0 ) E(h(X), Y ) ⇡ 0
h(x(i)
) ⇡ 1 and y(i)
= 1 ) E(h(X), Y ) ⇡ 0
h(x(i)
) ⇡ 0 and y(i)
= 1 ) E(h(X), Y ) ⇡ 1
h(x(i)
) ⇡ 1 and y(i)
= 0 ) E(h(X), Y ) ⇡ 1
w1
w0
修正模型	
•  梯度下降:	
w0 w0–⌘
@E(h(X), Y )
@w0
w1 w1–⌘
@E(h(X), Y )
@w1
(
@E(h(X), Y )
@w0
,
@E(h(X), Y )
@w1
)
修正模型
神經元與動作電位	
http://humanphisiology.wikispaces.com/file/view/neuron.png/
216460814/neuron.png
http://upload.wikimedia.org/wikipedia/commons/
thumb/4/4a/Action_potential.svg/1037px-
Action_potential.svg.png
模擬神經元	
n
W1
W2
x1
x2
b
Wb
y
nin = w1x1 + w2x2 + wb
nout =
1
1 + e nin
nin
nout
y =
1
1 + e (w1x1+w2x2+wb)
nout = 1
nout = 0.5
nout = 0(0,0)
x2
x1
模擬神經元	
nin = w1x1 + w2x2 + wb
nout =
1
1 + e nin
nin = w1x1 + w2x2 + wb
nout =
1
1 + e nin
w1x1 + w2x2 + wb = 0
w1x1 + w2x2 + wb > 0
w1x1 + w2x2 + wb < 0
1
0
⼆二元分類:AND Gate	
x1
 x2
 y
0
 0
 0
0
 1
 0
1
 0
 0
1
 1
 1
(0,0)
(0,1)
 (1,1)
(1,0)
0
1
n
20
20
b
-30
y
x1
x2
y =
1
1 + e (20x1+20x2 30)
20x1 + 20x2 30 = 0
類神經網路	
x
y
n11
n12
n21
n22
W12,y
W12,x
b
W11,y
W11,b
W12,b
b
W11,x
 W21,11
W22,12
W21,12
W22,11
W21,b
W22,b
z1
z2
Input
Layer
Hidden
Layer
Output
Layer
⼆二元分類:XOR Gate 	
n
-20
20
b
-10
y
(0,0)
(0,1)
 (1,1)
(1,0)
0
1
(0,0)
(0,1)
 (1,1)
(1,0)
1
0
(0,0)
(0,1)
 (1,1)
(1,0)
0
0
1
n1
20
20
b
-30
x1
x2
n2
20
20
b
-10
x1
x2
x1
 x2
 n1
 n2
 y
0
 0
 0
 0
 0
0
 1
 0
 1
 1
1
 0
 0
 1
 1
1
 1
 1
 1
 0
訓練類神經網路	
•  ⽤用隨機值初始化模型參數w	
•  Forward Propagation	
– ⽤用⺫⽬目前的模型參數計算出答案	
•  計算錯誤量(⽤用Error Function)	
•  Backward Propagation	
– ⽤用錯誤量來修正模型
訓練類神經網路	
訓練資料
 機器學習模型
 輸出值
正確答案
對答案
如果答錯了,
要修正模型
初始化
 Forward
Propagation
Error
Function
Backward
Propagation
初始化	
•  將所有的W隨機設成-N~N之間的數	
•  每層之間W的值都不能相同	
x
y
n11
n12
n21
n22
W12,y
W12,x
b
W11,y
W11,b
W12,b
b
W11,x
 W21,11
W22,12
W21,12
W22,11
W21,b
W22,b
z1
z2
Forward Propagation
Error Function	
J = (z1log(n21(out)) + (1 z1)log(1 n21(out)))
(z2log(n22(out)) + (1 z2)log(1 n22(out)))
n21
n22
z1
z2
nout ⇡ 0 and z = 0 ) J ⇡ 0
nout ⇡ 1 and z = 1 ) J ⇡ 0
nout ⇡ 0 and z = 1 ) J ⇡ 1
nout ⇡ 1 and z = 0 ) J ⇡ 1
w1
w0
Gradient Descent	
w21,11 w21,11 ⌘
@J
@w21,11
w21,12 w21,12 ⌘
@J
@w21,12
w21,b w21,b ⌘
@J
@w21,b
w22,11 w21,11 ⌘
@J
@w22,11
w22,12 w21,12 ⌘
@J
@w22,12
w22,b w21,b ⌘
@J
@w22,b
w11,x w11,x ⌘
@J
@w11,x
w11,y w11,y ⌘
@J
@w11,y
w11,b w11,b ⌘
@J
@w11,b
w12,x w12,x ⌘
@J
@w12,x
w12,y w12,y ⌘
@J
@w12,y
w12,b w12,b ⌘
@J
@w12,b
(–
@J
@w0
, –
@J
@w1
)
Backward Propagation	
11(in) =
@J
@n11(in)
=
@J
@n21(out)
@n21(out)
@n11(in)
+
@J
@n22(out)
@n22(out)
@n11(in)
= ( 21(in)w21,11 + 22(in)w22,11)
@n11(out)
@n11(in)
=
@J
@n21(out)
@n21(out)
@n21(in)
@n21(in)
@n11(out)
@n11(out)
@n11(in)
+
@J2
@n22(out)
@n22(out)
@n22(in)
@n22(in)
@n11(out)
@n11(out)
@n11(in)
= (
@J
@n21(out)
@n21(out)
@n21(in)
@n21(in)
@n11(out)
+
@J2
@n22(out)
@n22(out)
@n22(in)
@n22(in)
@n11(out)
)
@n11(out)
@n11(in)
Backward Propagation	
http://cpmarkchang.logdown.com/posts/277349-neural-network-backward-propagation
Tensorflow是什麼?
Tensorflow	
•  https://www.tensorflow.org/	
•  TensorFlow 是 Google 開發的開源機器學習
⼯工具。	
•  透過使⽤用Computational Graph,來進⾏行數
值演算。	
•  ⽀支援程式語⾔言:python、C++
Tensorflow	
機器學習Library
(ex, scikit-learn)
TensorFlow 從頭開始
彈性
技術門檻
把資料整理好後,剩
下的就直接呼叫API
自行定義
Computational Graph,
並交由TensorFlow計算。
自己推導微分公式,
自己寫整個流程
低
低
高
高
Tensorflow	
•  彈性	
– 只要是可以⽤用Computational Graph來表達的運
算,都可以⽤用Tensorflow來解。	
•  ⾃自動微分	
– ⾃自動計算Computational Graph微分後的結果。	
•  平台相容性	
– 同樣的程式碼可⽤用CPU執⾏行,亦可⽤用GPU執⾏行。
Computational Graph
CPU V.S GPU	
http://allegroviva.com/gpu-computing/difference-between-gpu-and-cpu/
Example : Binary Classification	
n
w1
w2
1
b
y
x1
x2
x1
x2
y
y =
1
1 + e x1w1+x2w2+b
x_data= np.random.rand(50,2)
y_data = ((x_data[:,1] > 0.5)*
( x_data[:,0] > 0.5))
模型 資料
Tensorflow	
x_ = tf.placeholder(tf.float32,[None,2])
y_ = tf.placeholder(tf.float32,[None,1])
w = tf.Variable(tf.random_uniform([2,1], -1.0, 1.0))
b = tf.Variable(tf.zeros([1,1]))
y = tf.nn.sigmoid(tf.matmul(x_,w)+b)
cross_entropy = -tf.reduce_sum(y_*tf.log(y) + (1- y_) * tf.log(1 - y) )
optimizer = tf.train.GradientDescentOptimizer(0.1)
train = optimizer.minimize(cross_entropy)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)
for step in xrange(500):
sess.run(train,feed_dict={x_:x_data,y_:y_data})
print sess.run(cross_entropy)
sess.close()
Computational
Graph
Session
Computation Graph	
# placeholder
x_ = tf.placeholder(tf.float32,[None,2])
y_ = tf.placeholder(tf.float32,[None,1])
# variable
w = tf.Variable(tf.random_uniform([2,1], -1.0, 1.0))
b = tf.Variable(tf.zeros([1,1]))
# operations
y = tf.nn.sigmoid(tf.matmul(x_,w)+b)
# error function
cross_entropy = -tf.reduce_sum(y_*tf.log(y) + (1-
y_) * tf.log(1 - y) )
# optimizer
optimizer = tf.train.GradientDescentOptimizer(0.1)
train = optimizer.minimize(cross_entropy)
# initalizer
init = tf.initialize_all_variables()
Placeholder	
0.70828883	
   0.27190551	
  
0.89042455	
   0.63832092	
  
0.11332515	
   0.00849676	
  
0.73278006	
   0.37781084	
  
0.292448	
   0.09819899	
  
0.9802261	
   0.94339143	
  
0.36212146	
   0.54404682	
  
……..	
   ……..	
  
0!
1!
0!
0!
0!
1!
0!
…!
x_ y_
x_ = tf.placeholder(tf.float32,[None,2])
y_ = tf.placeholder(tf.float32,[None,1])
Variable	
w = tf.Variable(tf.random_uniform([2,1], -1.0, 1.0))
b = tf.Variable(tf.zeros([1,1]))
0.42905441	
  
-0.43841863	
  
b
0!
w	
  
Matrix Multiplication	
y = tf.nn.sigmoid(tf.matmul(x_,w)+b)
0.42905441	
  
-­‐0.43841863	
  
w	
  x_
0.70828883	
   0.27190551	
  
0.89042455	
   0.63832092	
  
0.11332515	
   0.00849676	
  
….	
   ….	
  
0.184686	
  
0.1021888	
  
0.04489752	
  
….	
  
tf.matmul(x_,w)+b
b
0!
Sigmoid	
y = tf.nn.sigmoid(tf.matmul(x_,w)+b)
0.54604071	
  
0.52552499	
  
0.51122249	
  
….	
  
0.184686	
  
0.1021888	
  
0.04489752	
  
….	
  
tf.nn.sigmoid
Error Function	
E(h(X), Y ) =
1
m
(
mX
i
y(i)
log(h(x(i)
)) + (1 y(i)
)log(1 h(x(i)
)))
cross_entropy = -tf.reduce_sum(y_*tf.log(y) + (1- y_) * tf.log(1 - y) )
0.54604071	
  
0.52552499	
  
…	
  
0!
1!
…!
y_ y
1.4331052
-tf.reduce_sum(y_*tf.log(y))
Optimizer	
optimizer = tf.train.GradientDescentOptimizer(0.1)
train = optimizer.minimize(cross_entropy)
w w ⌘
@E(h(X), Y )
@w
b b ⌘
@E(h(X), Y )
@b
Backward propagation
Computation Graph	
•  Initializer	
init = tf.initialize_all_variables()
w
b
w = tf.Variable(tf.random_uniform([2,1], -1.0, 1.0))
b = tf.Variable(tf.zeros([1,1]))
0.42905441	
  
-0.43841863	
  
0!
Session	
# create session
sess = tf.Session()
# initialize variable
sess.run(init)
# gradient descent
for step in xrange(500):
sess.run(train, feed_dict={x_:x_data,y_:y_data})
# fetch variable
print sess.run(cross_entropy, feed_dict={x_:x_data,y_:y_data})
# release resource
sess.close()
Run Operations	
sess.run(init)
the Node in
Computational
Graph
Run Operations	
for step in xrange(500):
sess.run(train, feed_dict={x_:x_data,y_:y_data} )
the Node in
Computational
Graph
Input
Data
0.70828883	
   0.27190551	
  
0.89042455	
   0.63832092	
  
0.11332515	
   0.00849676	
  
0.73278006	
   0.37781084	
  
……..	
   ……..	
  
0!
1!
0!
0!
…!
x_data y_data
Run Operations	
print sess.run(cross_entropy, feed_dict={x_:x_data,y_:y_data})
the Node in
Computational
Graph
Input
Data
0.70828883	
   0.27190551	
  
0.89042455	
   0.63832092	
  
0.11332515	
   0.00849676	
  
0.73278006	
   0.37781084	
  
……..	
   ……..	
  
0!
1!
0!
0!
…!
x_data y_data
Results
2.4564333
Training	
for step in xrange(500):
sess.run(train, feed_dict={x_:x_data,y_:y_data} )
Demo : Binary Classification	
https://github.com/ckmarkoh/ntc_deeplearning_tensorflow/
blob/master/intro/binaryClassification.ipynb
Tensorboard	
Histogram Summary
Scalar Summary Computational Graph
summary	
tf.scalar_summarytf.histogram_summary
Histogram SummaryScalar Summary
merged = tf.merge_all_summaries()
writer = tf.train.SummaryWriter("./", sess.graph_def)
for step in xrange(500):
….
summary_str = sess.run(merged,feed_dict={x_:x_data,y_:y_data})
writer.add_summary(summary_str, step)
name_scope	
with tf.name_scope("cross_entropy") as scope:
cross_entropy = -tf.reduce_sum(y_*tf.log(y) + (1-y_)*tf.log(1-y))
Launch Tensorboard	
> tensorboard --logdir=./
Starting TensorBoard on port 6006
(You can navigate to http://0.0.0.0:6006)
Demo : TensorBoard	
https://github.com/ckmarkoh/ntc_deeplearning_tensorflow/
blob/master/intro/tensorboard.py
Demo	
•  影像識別:GoogLeNet	
https://github.com/ckmarkoh/ntc_deeplearning_tensorflow/
blob/master/intro/googlenet.ipynb
About the Speaker	
•  Email: ckmarkoh at gmail dot com	
•  Blog: http://cpmarkchang.logdown.com	
•  Github: https://github.com/ckmarkoh	
Mark Chang
•  Facebook: https://www.facebook.com/ckmarkoh.chang
•  Slideshare: http://www.slideshare.net/ckmarkohchang
•  Linkedin:
https://www.linkedin.com/pub/mark-chang/85/25b/847
71

Weitere ähnliche Inhalte

Was ist angesagt?

[系列活動] 手把手打開Python資料分析大門
[系列活動] 手把手打開Python資料分析大門[系列活動] 手把手打開Python資料分析大門
[系列活動] 手把手打開Python資料分析大門台灣資料科學年會
 
手把手打開Python資料分析大門
手把手打開Python資料分析大門手把手打開Python資料分析大門
手把手打開Python資料分析大門Yen-lung Tsai
 
Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)Chun-Min Chang
 
Python入門:5大概念初心者必備
Python入門:5大概念初心者必備Python入門:5大概念初心者必備
Python入門:5大概念初心者必備Derek Lee
 
Python入門:5大概念初心者必備 2021/11/18
Python入門:5大概念初心者必備 2021/11/18Python入門:5大概念初心者必備 2021/11/18
Python入門:5大概念初心者必備 2021/11/18Derek Lee
 
資料結構-20個經典題型
資料結構-20個經典題型資料結構-20個經典題型
資料結構-20個經典題型逸 張
 
Python - Matplotlib basic - v01
Python - Matplotlib basic - v01Python - Matplotlib basic - v01
Python - Matplotlib basic - v01ssuser5e7722
 
20161209-Julia Taiwan first meetup-julia語言入門
20161209-Julia Taiwan first meetup-julia語言入門20161209-Julia Taiwan first meetup-julia語言入門
20161209-Julia Taiwan first meetup-julia語言入門岳華 杜
 

Was ist angesagt? (20)

[系列活動] 手把手打開Python資料分析大門
[系列活動] 手把手打開Python資料分析大門[系列活動] 手把手打開Python資料分析大門
[系列活動] 手把手打開Python資料分析大門
 
R intro 20140716-basic
R intro 20140716-basicR intro 20140716-basic
R intro 20140716-basic
 
手把手打開Python資料分析大門
手把手打開Python資料分析大門手把手打開Python資料分析大門
手把手打開Python資料分析大門
 
Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)
 
Ch2 教學
Ch2 教學Ch2 教學
Ch2 教學
 
Python入門:5大概念初心者必備
Python入門:5大概念初心者必備Python入門:5大概念初心者必備
Python入門:5大概念初心者必備
 
Python入門:5大概念初心者必備 2021/11/18
Python入門:5大概念初心者必備 2021/11/18Python入門:5大概念初心者必備 2021/11/18
Python入門:5大概念初心者必備 2021/11/18
 
Ch12
Ch12Ch12
Ch12
 
資料結構-20個經典題型
資料結構-20個經典題型資料結構-20個經典題型
資料結構-20個經典題型
 
Ppt 26-50
Ppt 26-50Ppt 26-50
Ppt 26-50
 
Python - Matplotlib basic - v01
Python - Matplotlib basic - v01Python - Matplotlib basic - v01
Python - Matplotlib basic - v01
 
Ch11 範例
Ch11 範例Ch11 範例
Ch11 範例
 
Ch5 範例
Ch5 範例Ch5 範例
Ch5 範例
 
Ppt 101-119
Ppt 101-119Ppt 101-119
Ppt 101-119
 
Sym py edu
Sym py eduSym py edu
Sym py edu
 
Ppt 1-50
Ppt 1-50Ppt 1-50
Ppt 1-50
 
Ppt 51-77
Ppt 51-77Ppt 51-77
Ppt 51-77
 
20161209-Julia Taiwan first meetup-julia語言入門
20161209-Julia Taiwan first meetup-julia語言入門20161209-Julia Taiwan first meetup-julia語言入門
20161209-Julia Taiwan first meetup-julia語言入門
 
Ch5 教學
Ch5 教學Ch5 教學
Ch5 教學
 
Ch10 教學
Ch10 教學Ch10 教學
Ch10 教學
 

Ähnlich wie TENSORFLOW深度學習講座講義(很硬的課程)

TENSORFLOW深度學習講座講義(很硬的課程) 4/14
TENSORFLOW深度學習講座講義(很硬的課程) 4/14TENSORFLOW深度學習講座講義(很硬的課程) 4/14
TENSORFLOW深度學習講座講義(很硬的課程) 4/14NTC.im(Notch Training Center)
 
04 计算机的运算方法01
04 计算机的运算方法0104 计算机的运算方法01
04 计算机的运算方法01Huaijin Chen
 
C1 discrete time signals and systems in the time-domain
C1 discrete time signals and systems in the time-domainC1 discrete time signals and systems in the time-domain
C1 discrete time signals and systems in the time-domainPei-Che Chang
 
Arduino L2
Arduino L2Arduino L2
Arduino L2mmiwwcom
 
[科科營]電腦概述
[科科營]電腦概述[科科營]電腦概述
[科科營]電腦概述nctutlc2013
 
程式人雜誌 -- 2014 年4月號
程式人雜誌 -- 2014 年4月號程式人雜誌 -- 2014 年4月號
程式人雜誌 -- 2014 年4月號鍾誠 陳鍾誠
 
Equalization in digital communication
Equalization in digital communicationEqualization in digital communication
Equalization in digital communicationPei-Che Chang
 
2017 9-12 Deep Learning / Tensorflow
2017 9-12 Deep Learning / Tensorflow2017 9-12 Deep Learning / Tensorflow
2017 9-12 Deep Learning / Tensorflow煒勛 賴
 
蒙地卡羅模擬與志願運算
蒙地卡羅模擬與志願運算蒙地卡羅模擬與志願運算
蒙地卡羅模擬與志願運算Yuan CHAO
 
机器学习V10baochang svm
机器学习V10baochang svm机器学习V10baochang svm
机器学习V10baochang svmShocky1
 
PBL1-v1-005j.pptx
PBL1-v1-005j.pptxPBL1-v1-005j.pptx
PBL1-v1-005j.pptxNAIST
 
從技術面簡介線上遊戲外掛
從技術面簡介線上遊戲外掛從技術面簡介線上遊戲外掛
從技術面簡介線上遊戲外掛John L Chen
 
Flash mmorpg游戏引擎及工具开发概述-张明光
Flash mmorpg游戏引擎及工具开发概述-张明光Flash mmorpg游戏引擎及工具开发概述-张明光
Flash mmorpg游戏引擎及工具开发概述-张明光FLASH开发者交流会
 
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版逸 張
 
我对后端优化的一点想法
我对后端优化的一点想法我对后端优化的一点想法
我对后端优化的一点想法mysqlops
 
06 计算机的运算方法03
06 计算机的运算方法0306 计算机的运算方法03
06 计算机的运算方法03Huaijin Chen
 

Ähnlich wie TENSORFLOW深度學習講座講義(很硬的課程) (20)

TENSORFLOW深度學習講座講義(很硬的課程) 4/14
TENSORFLOW深度學習講座講義(很硬的課程) 4/14TENSORFLOW深度學習講座講義(很硬的課程) 4/14
TENSORFLOW深度學習講座講義(很硬的課程) 4/14
 
20200323 - AI Intro
20200323 - AI Intro20200323 - AI Intro
20200323 - AI Intro
 
04 计算机的运算方法01
04 计算机的运算方法0104 计算机的运算方法01
04 计算机的运算方法01
 
C1 discrete time signals and systems in the time-domain
C1 discrete time signals and systems in the time-domainC1 discrete time signals and systems in the time-domain
C1 discrete time signals and systems in the time-domain
 
Arduino L2
Arduino L2Arduino L2
Arduino L2
 
[科科營]電腦概述
[科科營]電腦概述[科科營]電腦概述
[科科營]電腦概述
 
程式人雜誌 -- 2014 年4月號
程式人雜誌 -- 2014 年4月號程式人雜誌 -- 2014 年4月號
程式人雜誌 -- 2014 年4月號
 
Equalization in digital communication
Equalization in digital communicationEqualization in digital communication
Equalization in digital communication
 
2017 9-12 Deep Learning / Tensorflow
2017 9-12 Deep Learning / Tensorflow2017 9-12 Deep Learning / Tensorflow
2017 9-12 Deep Learning / Tensorflow
 
蒙地卡羅模擬與志願運算
蒙地卡羅模擬與志願運算蒙地卡羅模擬與志願運算
蒙地卡羅模擬與志願運算
 
机器学习V10baochang svm
机器学习V10baochang svm机器学习V10baochang svm
机器学习V10baochang svm
 
Ch1
Ch1Ch1
Ch1
 
PBL1-v1-005j.pptx
PBL1-v1-005j.pptxPBL1-v1-005j.pptx
PBL1-v1-005j.pptx
 
從技術面簡介線上遊戲外掛
從技術面簡介線上遊戲外掛從技術面簡介線上遊戲外掛
從技術面簡介線上遊戲外掛
 
Flash mmorpg游戏引擎及工具开发概述-张明光
Flash mmorpg游戏引擎及工具开发概述-张明光Flash mmorpg游戏引擎及工具开发概述-张明光
Flash mmorpg游戏引擎及工具开发概述-张明光
 
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
 
我对后端优化的一点想法
我对后端优化的一点想法我对后端优化的一点想法
我对后端优化的一点想法
 
Maze Game
Maze GameMaze Game
Maze Game
 
06 计算机的运算方法03
06 计算机的运算方法0306 计算机的运算方法03
06 计算机的运算方法03
 
Ch1 教學
Ch1 教學Ch1 教學
Ch1 教學
 

Mehr von NTC.im(Notch Training Center)

NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習
NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習
NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習NTC.im(Notch Training Center)
 
NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言
NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言
NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言NTC.im(Notch Training Center)
 
NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用
NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用
NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用NTC.im(Notch Training Center)
 
從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授
從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授
從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授NTC.im(Notch Training Center)
 
淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座
淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座
淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座NTC.im(Notch Training Center)
 
簡報美學課程分享的資源連結(1/21於鴻海大樓)
簡報美學課程分享的資源連結(1/21於鴻海大樓)簡報美學課程分享的資源連結(1/21於鴻海大樓)
簡報美學課程分享的資源連結(1/21於鴻海大樓)NTC.im(Notch Training Center)
 

Mehr von NTC.im(Notch Training Center) (19)

A io t_ganalfhuang_day3_2022q1
A io t_ganalfhuang_day3_2022q1A io t_ganalfhuang_day3_2022q1
A io t_ganalfhuang_day3_2022q1
 
A io t_ganalfhuang_day2_2022q1
A io t_ganalfhuang_day2_2022q1A io t_ganalfhuang_day2_2022q1
A io t_ganalfhuang_day2_2022q1
 
A io t_ganalfhuang_day1_2022q1
A io t_ganalfhuang_day1_2022q1A io t_ganalfhuang_day1_2022q1
A io t_ganalfhuang_day1_2022q1
 
粉絲團大數據分析
粉絲團大數據分析粉絲團大數據分析
粉絲團大數據分析
 
小心走 交通大數據
小心走 交通大數據小心走 交通大數據
小心走 交通大數據
 
評品理 影像識別應用
評品理  影像識別應用評品理  影像識別應用
評品理 影像識別應用
 
Make2win 線上課程分析
Make2win 線上課程分析Make2win 線上課程分析
Make2win 線上課程分析
 
門市銷售預測大數據分析
門市銷售預測大數據分析門市銷售預測大數據分析
門市銷售預測大數據分析
 
影領風騷 大數據電影娛樂城
影領風騷 大數據電影娛樂城影領風騷 大數據電影娛樂城
影領風騷 大數據電影娛樂城
 
一夜臺北~訂房網站的大數據分析
一夜臺北~訂房網站的大數據分析一夜臺北~訂房網站的大數據分析
一夜臺北~訂房網站的大數據分析
 
台灣房地產售價與租價分析
台灣房地產售價與租價分析台灣房地產售價與租價分析
台灣房地產售價與租價分析
 
展店與汰店的大數據分析技術
展店與汰店的大數據分析技術展店與汰店的大數據分析技術
展店與汰店的大數據分析技術
 
NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習
NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習
NTC_Tensor flow 深度學習快速上手班_Part1 -機器學習
 
NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言
NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言
NTC_Tensor flow 深度學習快速上手班_Part4 -自然語言
 
NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用
NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用
NTC_TENSORFLOW深度學習快速上手班_Part3_電腦視覺應用
 
從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授
從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授
從Alpha go四勝一敗。看Deep Learning 發展趨勢 - 台大電機系 于天立教授
 
淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座
淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座
淺談物聯網巨量資料挑戰 - Jazz 王耀聰 (2016/3/17 於鴻海內湖) 免費講座
 
簡報美學課程分享的資源連結(1/21於鴻海大樓)
簡報美學課程分享的資源連結(1/21於鴻海大樓)簡報美學課程分享的資源連結(1/21於鴻海大樓)
簡報美學課程分享的資源連結(1/21於鴻海大樓)
 
簡報美學(20160121 於鴻海內湖總部)
簡報美學(20160121 於鴻海內湖總部)簡報美學(20160121 於鴻海內湖總部)
簡報美學(20160121 於鴻海內湖總部)
 

TENSORFLOW深度學習講座講義(很硬的課程)