专修讲座 | AI重塑在线会议体验,从虚拟背景到空间音频的科技探索

    1219下午北师香港浸会大学传播学文学硕士传理学专修举办专题讲座,特邀微软STC亚洲人工智能产品用户体验研究靳昕担任主讲人。讲座聚焦社会科学理论与人工智能在产品体验中的融合,深度解析了用户体验研究(UX Research)如何驱动AI技术落地,特别是在线会议场景下的创新应用与挑战。本次讲座由传理学专修讲师叶倩颖博士主持。


     

    靳昕进行讲座分享

    讲座伊始,靳昕分享了其从学术到产业的跨界经历。他指出,用户体验研究与传播学领域有着深厚的理论纽带,并举例说明了国际传播协会(ICA)中“人机传播”与“传播技术”相关研究如何为产品设计提供理论支撑。他巧妙地将政治传播中的概念类比至产品领域,阐释了如何理解并提升用户的“采纳”与“留存”,揭示了社会科学理论在解决实际产品问题中的强大力量。

    随后,讲座深入剖析了多项具体的AI赋能会议体验的研究案例。靳昕首先介绍了“AI生成会议背景”功能的研究。该功能可根据用户真实环境生成如“洁净”、“时尚”等风格的虚拟背景。通过细致的用户访谈与问卷调查发现,用户使用虚拟背景的核心诉求在于消除环境干扰与匹配会议氛围。数据进一步揭示,高频使用此功能的用户,其在会议中的沉浸感、参与度、兴趣及愉悦感均获得显著提升,证明了AI个性化功能对会议质量的积极影响。

     

    靳昕进行讲座分享

    在提升会议听觉体验方面,靳昕团队关于“空间音频”的研究引发了听众浓厚兴趣。研究通过主客观指标综合评估,明确了在不同设备模式下实现最佳听感的空间角度:耳机模式推荐15度夹角,而扬声器模式则以60度为佳。这一发现为在线会议平台优化音频设计提供了关键数据支撑,旨在使远程交流更具现场感与方向感。

    讲座最后部分聚焦于AI在促进会议无障碍沟通方面的前沿探索与现存挑战。靳昕展示了能模仿用户音色的实时AI同传技术,同时坦言目前存在的3-5秒延迟可能影响多语言会议的对话流畅性。在手语翻译研究方面,他深入阐释了手语多模态(手势、表情、肢体语言)的本质及其地域差异性(如美式、英式手语不互通)。研究指出,为聋哑用户提供真正可用的AI手语翻译服务,必须实现高度定制化,包括对虚拟人形象性别、手势速度及面部表情等细节的个性化设置,这体现了技术发展中深刻的人文关怀与包容性设计思维。

    本次讲座通过丰富的案例,生动展示了严谨的用户体验研究如何成为连接前沿人工智能技术与真实用户需求的桥梁,不仅拓宽了在座学子对AI应用场景的认知,也深刻揭示了在技术浪潮中始终以“人”为本的核心设计哲学。讲座在热烈的互动与探讨中圆满结束。

     

    靳昕(左)与叶倩颖博士(右)合照

     

    靳昕个人简历:

    Microsoft STC Asia的人工智能产品用户体验研究员,专注于人机交互、LLM 工程以及人工智能转型。他因在学术严谨性与行业敏捷性之间架起桥梁而获得认可,擅长将行为洞察转化为可操作的产品策略。

    最后更新:2025-12-24