2022中国数字服务大会(China Service 2022)由中国计算机学会(CCF)主办,CCF服务计算专业委员会、东南大学承办,南京大学、南京理工大学、河海大学、南京邮电大学、南京林业大学、南京师范大学等共同协办,将于2022年8月19日-21日(原定2022年7月23日-25日,疫情原因推迟)在江苏省南京市召开。
本次大会设有“边缘服务计算”专题论坛(Special Track),旨在分享“服务计算”、“边缘计算”和“云计算”等交叉领域的最新研究成果。探讨面向各种边缘服务(例如:微服务系统、服务工作流、函数计算等)的多类资源(例如虚拟机、容器)部署、迁移、动态供应、任务调度与性能优化方法;面向边缘计算场景的服务发现与推荐、服务编排、服务组合与执行、服务智能化协同方法;以及其他云边端协同的服务计算理论与方法。促进“边缘服务计算”相关理论和技术的交叉融合与发展。“边缘服务计算”专题论坛现征集优秀中/英文论文。被录用论文作者将被邀请至论坛做口头报告。同时该论坛还包含已发表高水平成果交流环节,旨在分享已在其他期刊和会议上录用、发表的边缘服务计算领域高水平、创新性成果。
一、征文范围(包括但不限于)
1. 边缘服务资源部署与迁移策略
2. 面向边缘环境的微服务应用虚拟机、容器等云边资源的(混合)动态供应、任务调度与性能优化
3. 面向边缘环境的服务工作流虚拟机、容器等云边资源的(混合)动态供应、任务调度与性能优化
4. 面向边缘服务的无服务器(函数)计算系统任务调度与性能优化
5. 基于深度学习、知识图谱等技术的边缘服务发现与推荐
6. 面向边缘服务的微服务系统编排、组合与执行
7. 面向边缘服务的软件工程方法
8. 智能边缘服务
9. 边缘服务智能协同技术
10. 云原生相关微服务部署与管理方法
11. 其他云边端协同的服务计算理论与方法
二、投稿要求
1. 未在国内外公开发行的刊物或会议论文集上录用或者发表。
2. 只接收PDF格式的电子稿件:中文论文不超过8页(A4纸)内,详细的格式要求请参照《计算机学报》投稿格式(计算机学报网站:http://cjc.ict.ac.cn/, 在线投稿页面可下载Word或者Latex模板)。英文论文格式的详细要求请参照《IEEE Transactions on Services Computing》的投稿格式。
3. 论文以单盲形式评审。
4. 投稿采用Easychair系统,投稿网址为:
https://easychair.org/my/conference?conf=ncscedge2022
三、论文出版
会议录用的中文论文将推荐到《计算机科学》《计算机应用》《计算机工程与应用》《南京大学学报》《山东大学学报》《南京理工大学学报》《郑州大学学报(理学版)》等期刊。此外,会议录用的优秀英文论文将推荐到《Digital Communications and Networks》《Wireless Communications and Mobile Computing》《Security and Communication Networks》《Mobile Information Systems 》等SCI期刊发表。
四、已发表高水平成果分享
欢迎大家在本次专题论坛上分享已在其他期刊和会议上录用、发表、或进展中的边缘服务计算领域高水平、创新性成果。请直接将报告人、报告人简介、报告题目、摘要发送到下方联系人邮箱(参会时需要注册)。该环节仅限交流分享,不涉及论文推荐与发表。
部分特邀讲者如下(持续更新中):
报告1:边缘云技术创新 让“云”无处不在
报告人:付哲,阿里巴巴云计算,博士后研究员/技术专家
报告简介:在5G和万物互联的背景下,网络设备数量迅速增加,流量带宽压力持续增大。边缘计算将计算、存储、网络、安全等能力延伸至用户边缘,可以提供高覆盖度、低延时、少带宽、本地化和安全的计算服务。边缘计算将原有云计算中心的部分或者全部计算任务迁移到用户边缘执行,与云计算相辅相成,二者有机结合,为万物互联时代的数据计算和处理提供较完善的软硬件支撑平台。阿里云是业界最早探索边缘云计算的公司之一,本次报告将向大家介绍阿里云在边缘云计算领域的技术演进路线与商业场景实践。
报告2:Endpoint Communication Contention-Aware Cloud Workflow Scheduling
报告人:吴全旺,副研究员,重庆大学
报告简介:Existing cloud workflow scheduling algorithms are grounded on an idealized target platform model where virtual machines are fully connected, and all communications can be performed concurrently. A significant aspect neglected by them is endpoint communication contention when executing workflows, which has a large impact on workflow makespan. This work investigates how to incorporate contention awareness into cloud workflow scheduling and proposes a new practical scheduling model.
报告3:Romou: Rapidly Generate High-Performance Tensor Kernels for Mobile GPUs
报告人:Ting Cao, Senior Research Manager, MSRA
报告简介:Mobile GPU, as a ubiquitous and powerful accelerator, plays an important role in accelerating on-device DNN (Deep Neural Network) inference. The frequent-upgrade and diversity of mobile GPUs require automatic kernel generation to empower fast DNN deployment. However, current generated kernels have poor performance.
The goal of this paper is to rapidly generate high-performance kernels for diverse mobile GPUs. The major challenges are (1) it is unclear about what is the optimal kernel due to the lack of hardware knowledge; (2) how to rapidly generate it from a large space of candidates. For the first challenge, we propose a cross-platform profiling tool, the first to disclose and quantify mobile GPU architecture. Directed by the results, we propose a mobile-GPU-specific kernel compiler Romou. It supports the unique hardware feature in kernel implementation, and prunes inefficient ones against hardware resources. Romou can thus rapidly generate high-performance kernels.
Compared to the state-of-the-art generated kernels, it achieves up-to 14.7× speedup on average for convolution. The performance is even up-to 1.2× faster on average than the state-of-the-art hand-optimized implementation.
报告4:Failure-aware Elastic Cloud Workflow Scheduling
报告人:姚光顺 教授 滁州学院计算机与信息工程学院副院长
报告简介:With an increasing complexity and functionality in cloud data centers, fault tolerance becomes an essential requirement for tasks executed in clouds, especially for workflows with task precedences. Hosts and network devices are the main physical components in a cloud data center. The PB (Primary-Backup) model is a desirable approach to fault tolerance. Many PB-based workflow scheduling algorithms have been proposed for host faults. However, only a few studies focus on cloud workflow scheduling considering network device faults. This paper analyzes the fault-tolerant properties for scheduling dependent tasks and migrating VMs based on the PB model, considering both host and network device faults in a cloud data center. A failure-aware elastic cloud workflow scheduling algorithm is designed for both host and network device fault tolerance. Additionally, an elastic resource provisioning mechanism is proposed and incorporated into the proposed algorithm to improve resource utilization. Performance evaluations on both randomly generated and real-world workflows show that the proposal effectively improves resource utilization while guaranteeing fault tolerance.
五、重要日期
投稿截止日期:2022年6月15日 (2022年7月20日)
录用通知日期:2022年7月30日 (2022年8月12日)
会议召开日期:2022年8月19-21日
六、联系人
徐梦炜(北京邮电大学) mwx@bupt.edu.cn
蔡志成(南京理工大学) caizhicheng@njust.edu.cn
版权所有:中国计算机学会技术支持邮箱:conf_support@ccf.org.cn