時間:2023年3月18日 11:00-12:30
報告人:柴一棟 研究員 合肥工業(yè)大學
地點:主樓216會議室
報告人簡介:
柴一棟,合肥工業(yè)大學研究員,博士生導師。博士畢業(yè)于清華大學經(jīng)管學院管理科學與工程系,本科畢業(yè)于偉德國際1946bv官網(wǎng)信息管理與信息系統(tǒng)專業(yè),主要關(guān)注如何設(shè)計創(chuàng)新性的人工智能方法,更好地服務(wù)于個人、組織和社會的現(xiàn)代科學化管理,研究領(lǐng)域包括信息系統(tǒng)安全與網(wǎng)絡(luò)空間管理(醫(yī)聯(lián)網(wǎng)安全等)、智慧醫(yī)療管理、商務(wù)智能管理等。以第一作者或通訊作者發(fā)表研究成果于MISQ、ISR、JMIS、IEEE TDSC、IEEE TPAMI等國際管理學/計算機科學頂刊。榮獲國際信息系統(tǒng)權(quán)威會議WITS 2021 best paper award、清華大學優(yōu)秀博士論文等榮譽。
報告內(nèi)容簡介:
隨著深度學習和人工智能方法的迅速發(fā)展和廣泛應(yīng)用,智能方法的安全性日益引起人們的關(guān)注。對抗攻擊(Adversarial attack)通過對原始樣本進行輕微擾動生成對抗樣本(adversarial samples),實現(xiàn)對智能模型的欺騙,從而對智能模型的安全造成嚴重威脅。因此,如何評估智能模型抵御對抗攻擊的能力(對抗魯棒性)以及如何提升智能模型的對抗魯棒性成為重要的研究問題。講者將圍繞自己正在從事的研究工作,從如何評估以及如何提升智能模型的對抗魯棒性兩個方面分享自己的研究。
(承辦:管理工程系、管理科學與物流系、科研與學術(shù)交流中心)