偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

現(xiàn)在知道還不算晚,輸入示例自動生成代碼,谷歌開源這項神器要火

新聞 前端
操作張量并非易事,因為它需要很多先決條件,例如跟蹤多個維度,Dtype兼容性,數(shù)學正確性和張量形狀等。

 操作張量并非易事,因為它需要很多先決條件,例如跟蹤多個維度,Dtype兼容性,數(shù)學正確性和張量形狀等。當然最大的挑戰(zhàn)還是從數(shù)百種可用選項中確定正確的TensorFlow操作。

[[344525]]

假如不需要你進行對張量操縱進行編碼,你只需要通過一個說明性的例子來演示,有個工具就能生成相應的代碼,你會選擇這個工具么?如果會的話,谷歌的TensorFlow Coder(TF-Coder)可以幫你實現(xiàn)這一點。

TF-Coder是一個程序合成工具,可以幫助你編寫TensorFlow代碼,首先,這個工具需要輸入所需張量變換的輸入-輸出示例。然后,它會運行一個組合搜索來查找執(zhí)行轉(zhuǎn)換的TensorFlow表達式。TF-Coder的輸出是真實的TensorFlow代碼,你可以直接將它用在你的項目中。

接著,我們再來詳細介紹一下TF-Coder是如何幫助你編寫TensorFlow代碼。

在TensorFlow中的編程示例

假如你想將包含 M 個元素的向量(下例中指‘rows’)和包含 N 個元素的向量“想加”,生成一個包含所有成對和的 M x N 矩陣。你可以提供一個輸入輸出示例(如M=3和N=4),而不需要深入研究TensorFlow文檔來找出如何做到這一點。

輸入張量:

  1. inputs = { 
  2.  
  3. 'rows': [102030], 
  4.  
  5. 'cols': [1234], 
  6.  

所提供的輸入張量對應的期望輸出張量:

  1. output = [[11121314], 
  2.  
  3. [21222324], 
  4.  
  5. [31323334]] 

給定這些信息(默認情況下已經(jīng)輸入到TF-Coder Colab中),TF-Coder工具會在零點幾秒內(nèi)自動找到合適的TensorFlow代碼:

  1. tf.add(cols, tf.expand_dims(rows, 1)) 

上面的問題非常簡單,只是通過示例來說明編程的思想。TF-Coder對于更難的問題也很有用。

TF-Coder幫助你找到要使用的正確函數(shù)

假設我們正在處理一個數(shù)學問題,比如商品的價格,數(shù)據(jù)集中范圍很廣,從$10以下到$1000以上。如果這些價格被直接用作特征,那么你的模型可能會對訓練數(shù)據(jù)中的特定價格過度擬合。

假如要處理這些問題,你可能需要使用bucketing將數(shù)字價格轉(zhuǎn)換成類別特征。使用bucket邊界 [10, 50, 100, 1000] 意味著低于10美元的價格應歸入bucket 0,10美元至50美元的價格應歸入bucket 1,依此類推。

選擇bucket邊界之后,如何使用TensorFlow將實際價格映射到bucket索引?諸如給定以下bucket邊界和物品價格:

  1. # Input tensors 
  2.  
  3. boundaries = [10501001000
  4.  
  5. prices = [15350901001001

計算每個項的bucket編號:

  1. # Output tensor 
  2.  
  3. bucketed_prices = [102234

盡管TensorFlow提供了各種bucketing操作,但要找出哪個特定的操作執(zhí)行這種確切的bucketing可能比較棘手。由于TF-Coder可以通過行為識別數(shù)百個張量操作,你可以通過提供一個輸入-輸出示例來查找正確的操作:

  1. # Input-output example 
  2.  
  3. inputs = { 
  4.  
  5. 'boundaries': [10501001000], 
  6.  
  7. 'prices': [15350901001001], 
  8.  
  9.  
  10. output = [102234

很快,TF-Coder就會輸出如下解決方案:

  1. tf.searchsorted(boundaries, prices, side='right'

TF-Coder通過聰明的方式結(jié)合函數(shù)

現(xiàn)在我們來考慮另一個問題:計算一個0-1的張量,它能識別輸入張量每一行中的最大元素。

  1. # Input tensor 
  2.  
  3. scores = [[0.70.20.1], 
  4.  
  5. [0.40.50.1], 
  6.  
  7. [0.40.40.2], 
  8.  
  9. [0.30.40.3], 
  10.  
  11. [0.00.01.0]] 
  12.  
  13. # Output tensor 
  14.  
  15. top_scores = [[100], 
  16.  
  17. [010], 
  18.  
  19. [100], 
  20.  
  21. [010], 
  22.  
  23. [001]] 

注意,如果同一最大元素在一行中出現(xiàn)多次,比如在第三行scores中,那么應該只標記第一個最大元素,以便top_scores的每行只有一個結(jié)果。

和上個問題不同的是,這里不存在可執(zhí)行該計算的 TensorFlow 函數(shù)。在文檔中搜索「max」,你可能找到 tf.reduce_max、tf.argmax 和 tf.maximum,但也不清楚到底該用哪一個?tf.reduce_max 輸出 [0.7, 0.5, 0.4, 0.4, 1.0],tf.argmax 輸出 [0, 1, 0, 1, 2],tf.maximum 不合適,因為它只能容納兩個參數(shù)。這些函數(shù)似乎都與該示例的期望輸出關(guān)聯(lián)不大。

對于此類問題,TF-Coder也可以快速解決。你可以把這個問題寫成輸入輸出例子的形式

  1. # Input-output example 
  2.  
  3. inputs = { 
  4.  
  5. 'scores': [[0.70.20.1], 
  6.  
  7. [0.40.50.1], 
  8.  
  9. [0.40.40.2], 
  10.  
  11. [0.30.40.3], 
  12.  
  13. [0.00.01.0]], 
  14.  
  15.  
  16. output = [[100], 
  17.  
  18. [010], 
  19.  
  20. [100], 
  21.  
  22. [010], 
  23.  
  24. [001]] 

TF-Coder結(jié)合使用tf.one_hot和tf.argmax,得出一個解決方案:

  1. tf.cast(tf.one_hot(tf.argmax(scores, axis=1), 3), tf.int32) 

通過對TensorFlow操作組合的詳細搜索,TF-Coder經(jīng)常會找到類似這樣的優(yōu)雅解決方案,這可能會簡化并加速TensorFlow程序的開發(fā)。

關(guān)于TF-Coder的用法還有很多,這里就不一一列舉了,相信你已經(jīng)見識到他的強大了,最后附上TF-Coder相關(guān)地址:

Github地址:https://github.com/google-research/tensorflow-coder

Google Colab 試用地址:https://colab.research.google.com/github/google-research/tensorflow-coder/blob/master/TF-Coder_Colab.ipynb

 

責任編輯:張燕妮 來源: 開源最前線
相關(guān)推薦

2011-09-06 17:05:16

移動廣告

2020-08-28 15:28:29

代碼開發(fā)工具

2018-05-29 10:16:40

超融合IT廠商產(chǎn)品

2022-03-25 14:24:18

谷歌自然語言算法

2020-05-29 15:36:38

開源神器 工具

2021-03-24 10:48:32

谷歌開源代碼

2012-08-20 08:58:40

2019-07-16 08:09:32

開源技術(shù) 趨勢

2020-05-15 08:18:51

TFPyTorch深度學習

2020-12-31 11:55:56

PythonPlaywright微軟

2024-02-23 09:02:21

前端開源項目

2024-02-05 12:45:33

AI訓練

2018-09-02 15:43:56

Python代碼編程語言

2017-11-09 19:15:25

2015-08-11 09:51:06

谷歌重組Alphabet

2010-01-18 09:43:53

李開復谷歌

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT

2020-05-25 20:46:59

Python編程語言程序員

2013-10-15 09:21:40

2017-06-09 14:45:14

前端深度學習
點贊
收藏

51CTO技術(shù)棧公眾號