法院圖示
::: 首頁 關於本院 大事紀要 107年度新興技術研討會第7場(人工智慧與機器學習之發展)新聞稿
107年度新興技術研討會第7場(人工智慧與機器學習之發展)新聞稿 列印

「人工智慧與機器學習之發展」新聞稿

有鑑於現今人工智慧與機器學習領域技術的快速發展,以及後續衍生的法律問題,智慧財產法院於107年11月26日特別邀請國立台灣大學電機工程學系于天立副教授,就「人工智慧與機器學習之發展」議題進行專題演講。

講座首先介紹人工智慧與機器學習的起源與發展,指出人工智慧與機器學習的起源主要來自於對人類思考行為的觀察與模仿,並在過去70年間經歷了三次重大的轉變與革新。第一波是人工智慧初始時期,約上世紀50年代至70年代,與電腦技術出現的時期相同,主要的發展是搜尋技術與類神經網路,搜尋技術發展的巔峰即是深藍電腦(Deep Blue),深藍電腦在1997年擊敗當時西洋棋世界棋王Kasparov。第二波是上世紀80年代至90年代,這時期的發展重點是專家系統,主要的精神是知識導向(knowledge driven),即是將人類的知識引入系統中。第三波,也就是2010年至今的研究熱潮,主要的精神是資料導向(data driven),亦即,資料本身的重要性超出演算法本身的重要性,研究的主要的議題即為目前所熟知的機器學習與自動特徵擷取。

在人工智慧初始時期的另一個發展是類神經網路,所謂類神經網路即是模仿人類腦部神經元的運作,而提出的一個運作模型,雖類神經網路的發展因電腦硬體的限制而停滯了一段時間,但隨著近年硬體技術的快速發展,類神經網路研究又再度活躍。

為了有效的運用蒐集的資料使模型可以順利的學習與驗證,講座介紹Holdout cross-validation與k-fold cross-validation方法,這兩種方法重新安排輸入這些蒐集到資料,可以使我們更為瞭解學習後的模型效能。

深度學習為機器學習的一個子領域,即是利用深層的神經網路做為前述具有可調整參數的模型,其中該些可調整參數即為各神經元連結的權重。接著介紹兩種目前廣泛應用的神經網路的連接結構,捲積神經網路(Convolutional Neural Network)與遞迴神經網路(Recurrent Neural Network)。捲積神經網路的運作原理與人類視覺皮層的運作相似,因此非常適用於影像辨識,2012年,來自多倫多大學的Alex Krizhevsky即利用捲積神經網路的深度學習結構刷新了ImageNet競賽的記錄,ImageNet競賽為電腦視覺領域最具聲望的競賽。他提出的捲積神經網路的深度學習結構錯誤率為16%,大幅超越過去電腦視覺領域的研究。遞迴神經網路則是利用遞迴結構造成一個內部狀態,因此可記憶網路的累積狀態,遞迴神經網路的一個延伸,即是著名的長短期記憶單元(Long Short-Term Memory,LSTM),長短期記憶單元能使網路具有長時記憶的能力。

於捲積神經網路與遞迴神經網路後,講座最後介紹一種稱為自動編碼器(Autoencoders) 的特殊神經網路架構,自動編碼器包含兩個部分,編碼器(Encoder)與解碼器(Decoder),編碼器將原始數據壓縮到低維向量,接着又通過另外一個神經網絡,即解碼器,去解碼得到一個與輸入原數據相近的生成數據,藉由這樣的結構,我們可以得到原始數據的一個低維度表現,由於自動編碼器可提取出資料重要部分,因此也可用於資料去雜訊,講座並指出自動編碼器若結合由Goodfellow等人在2014提出的對抗網路,則可用於產生各式的圖像操作。

最後,在討論時間,講座提出了他對於未來人工智慧將遇到法律問題的一些看法。由於于副教授用具體又有趣的方式生動介紹,分享他多年在人工智慧領域研究所得的知識與心得,不僅引發與會者極大的興趣,並使與會者從中思考而獲得啟發,獲益良多。

最近更新在 2018/12/13 週四