微信里点“发现”,扫一下
二维码便可将本文分享至朋友圈
演讲摘要:"随着深度神经网络的广泛应用,机器学习相关模型在单项测试中的准确率达到甚至超过了人类水平,正逐步实现从“不能用”到“可以用”的技术跨越。然而,在医疗诊断、无人驾驶等强安全性的应用领域,由于鲁棒性差、违背常识伦理、难以测试调试等问题,模型距离工业级大规模场景下的“很好用”要求仍有一段距离。 本次报告将分为两个部分。(1)第一部分介绍可信媒体计算框架:我们将目前媒体计算模型“不好用”的原因归结为机器学习模型对人知识蒸馏的过程中学习到的两类“虚假相关性”,并对应提出了训练器-解释器-测试器的可信媒体计算研究框架。(2)第二部分以多模态基础训练为载体,介绍对抗鲁棒性、算法公平性和幻觉内容生成等方面的具体工作。"
讲者简介:桑基韬,北京交通大学教授、计算机科学系主任,国家级人才青年计划入选者。主要研究方向为社会多媒体计算、多源数据挖掘、可信机器学习。曾获得中科院院长特别奖、ACM中国新星奖等,作为负责人先后承担相关方向的国家自然科学基金重点项目、(首批)新一代人工智能重大项目课题和北京市杰出青年基金,第一/二作者论文7次获得CCF推荐国际会议主会的论文奖项,以第二完成人获得中国电子学会自然科学一等奖和北京市科学技术奖。