2020年9月29日 星期二

109年度榮譽榜

109年度得獎公告

卓越服務貢獻獎

條件: 本獎項被推薦者須為會籍滿一年以上的本會會員且具服務績效。

資格:經本會會員五人以上推薦得成為卓越服務貢獻獎候選人。

名額:最多兩名,得從缺。

得獎人:

宋開泰教授

莊季高教授

學歷:比利時荷語魯汶大學機械系博士

學歷:美國密蘇里大學電機工程博士

現職:交通大學電機系教授

現職:海洋大學通訊導航系教授兼副校長



會士

條件:在自動控制學術或實務方面有重大成就及對於推動本會會務有傑出貢獻之本會會員。

資格:經本會會員五人以上推薦得成為會士候選人。

名額:最多兩名。

得獎人:

黃有評教授

學歷:德州理工大學(Texas Tech University)電機工程系博士

現職:國立臺北科技大學電機系教授



青年自動控制工程獎

條件:四十歲以下對我國自動控制實務或自動控制教育有傑出貢獻或深具潛力者。

資格:公私立大專院校自動控制相關科系教師,或對國內自動控制實務有傑出貢獻事蹟或身具潛力之本會會員。

名額:最多兩名,得從缺。

得獎人:

陳瑄易副教授

林昱成副教授

學歷:國立中央大學電機工程學系博士

學歷:國立中興大學電機工程學系博士

現職:國立臺灣師範大學電機工程學系副教授

現職:逢甲大學自動控制工程學系副教授


 

自動控制工程碩士論文獎

條件:凡當年度畢業於國內大學院校自動控制相關系所之碩士,其碩士論文對自動控制領域有顯著貢獻,得接受推薦。

資格:本獎項之候選人由其指導教授及本會正式會員推薦。

名額:以特優一名,優等二名,佳作三名為原則,得不足額。

特優:

張峻豪先生(指導教授:連豊力)

學歷:國立台灣大學電機工程學系碩士

碩士論文題目:

基於最佳化回授雙向快速搜尋隨機樹*與停車導向模型預測控制之人性化自駕車停車運動規劃與車輛控制

Human-like Motion Planning and Vehicle Control for Autonomous Parking Using Optimize-feedback Bidirectional Rapidly-exploring Random Trees* and Parking-oriented Model Predictive Control

優等:

欒博謙先生 (指導教授:李祖聖)

學歷:國立成功大學電機工程學系碩士

碩士論文題目:

孤立森林回溯粒子群演算法實現擬人機器手最佳化設計及基於終身學習之肌電訊號手勢分類應用 

IFB-PSO for Optimized Realization of an Anthropomorphic Robotic Hand and Electromyographic Hand Gesture Classification Using Lifelong Learning

陳翰蕓先生 (指導教授:李慶鴻)

學歷:國立中興大學機械工程學系碩士

碩士論文題目:

卷積類神經網路應用於振動訊號分析:應用及模型解釋

Convolutional Neural Networks for Vibration Analysis: Applications and Explanation

佳作:

鄭弘御先生(指導教授:蔡清池)

學歷:國立中興大學電機工程學系碩士

碩士論文題目:

使用模糊寬度學習系統與人工位勢能函數之網路連結異質多台不確定全向機器人的模糊合作EKF 定位與適應積分終端滑模合作編隊控制

Fuzzy Cooperative EKF Localization and Adaptive Integral Terminal Sliding-Mode Formation Control Using Fuzzy Broad Learning System and Artificial Potential Function for Uncertain Networking Heterogeneous Omnidirectional Multirobots

何紫瑄小姐(指導教授:宋開泰)

學歷:國立交通大學電機工程學系碩士

碩士論文題目:

基於 3D 模型及擴增實境之機器人輔助手術監控設計

Supervised Control Design for Robot-Assisted Surgery Using 3D Medical Model and Augmented Reality

薛頌恒生先(指導教授:莊家峰)

學歷:國立中興大學電機工程學系碩士

碩士論文題目:

3D列印機器手臂設計與使用兩階段深度增強式學習之物體抓取應用

Design of 3D-Printed Robotic Arm with Object Gripping Application Using Two-stage Deep Reinforcement Learning