九一果冻制品工厂

【陕西省教育厅】西北政法大学“四方落子”构建疫情防控管理服务体系

  • 2022年04月15日
  • 陕西省教育厅
关注西法大官网
微信
微博
Qzone
网址
打印
阅读

面对疫情防控的严峻形势,西北政法大学“四方落子”多措并举,线上线下联动,精确掌握学生实际情况,全力保障学生的学习生活需求,把对学生的关心关怀落细落实,扎实做好疫情防控期间育人工作。

——一条主线抓育人,让抗疫信念更坚定。面对疫情防控形势,该校将“疫情危机”转化为“教育契机”,主动作为、精心筹划,挖掘疫情防控的育人功能,讲好战“疫”思政课,厚植爱国之情、砥砺爱国之志、引导报国之行。该校党委号召全校基层党组织和党员、干部践行伟大建党精神,关键时刻站得出来、危急关头冲得上去,在坚决打赢疫情防控阻击战中发挥战斗堡垒作用和先锋模范作用。党员干部、党员学生充分发挥党员的领导作用,闻令而动,下沉抗疫一线,“逆向”而行。该校在长安校区、雁塔校区成立疫情防控学生志愿者临时党支部,主动配合各部门开展核酸检测、物资保障、餐食服务等工作。该校通过开设“战‘疫’日记”“疫情下的校园花式生活”“战‘疫’有我,请党放心”等专栏,深入挖掘疫情防控中的育人元素,把疫情“战场”变为教育“课堂”,引导师生厚植家国情怀,坚定听党话、跟党走。

——两类载体同发力,让抗疫服务更全面。该校党团共建,朋辈互助,坚持“线上线下”共同发力,推动疫情防控各项工作向菜单式、自主式转变。线下通过多方联动,发动学生组织力量,形成党员带头、党团共建、多方联动,各支部党员积极担当、主动参与,广大入党积极分子、共青团员和学生群众踊跃其中的抗疫局面。组织“青年抗疫突击队”,勇挑重担,把主动参与疫情防控作为党团组织彰显先进性的重要实践载体。在疫情防控一线设置团员“先锋岗”,树立青春榜样,增强责任担当,努力成为让广大青年师生能够随时看得见、找得到团组织。线上开设“学工干部战‘疫’合集”“学工战‘疫’纪”“同上思政课”等专栏,制作辅导员代表“快闪”微视频、元旦“云”晚会,同上一堂战“疫”思政课,拍摄宣传视频,谱写防疫歌曲《西北政法大学战“疫”颁测辫丑别谤》《长安·常安》等,讲好青春抗疫故事,弘扬向上向善正能量。

——叁级联动齐上阵,让抗疫机制更高效。持续完善纵横双向联动的管理服务链条,畅通信息渠道,落实落细疫情防控要求,筑牢健康屏障。纵向联动以“学院——年级——班级”为主形成叁级管理服务体系,主要负责督促落实核酸检测、学生应急就医、建议意见反馈、学业心理等服务工作,保障核酸检测实现全覆盖。横向联动以“楼长——楼层长——宿舍”为主线形成叁级管理服务体系,落实属地管理要求,做好物资配给发放、协助做好相关意见问题收集等工作,确保各项服务工作下沉、落实落细。

——四项重点明任务,让抗疫成效更显着。该校明确四项重点工作,扎实做好学生学习生活的保障工作,将立德树人要求贯穿始终。一是着力做好思想引领。认真组织师生学习习近平总书记对于疫情防控工作的重要讲话重要指示精神,学习科学疫情防控知识,向全校师生及家长多次发出倡议,发挥师生、家校联动作用,在抗疫工作中选树典型,正向激励。二是严格疫情期间校园管理。细化优化校园疫情防控工作措施,引导学生有序、分批、错峰用餐、洗澡、理发、锻炼,保障学生生活必需。强化学校、学院、辅导员、宿舍网格化管理,确保学习生活防疫各环节平稳有序。落实落细疫情防控期间学生急诊和慢性疾病外出就医工作,做好学生关心关爱工作,筑牢师生战“疫”心理防线。叁是分类满足学生需求。针对考研学生,通过“云”端会议、一对一谈话等形式舒缓学生心理压力,开展赠送贺卡、撰写祝福、录制视频、提供物资等活动,并组织辅导员集中领取备考学生考研复习资料;针对就业学生,做好就业指导和帮扶工作,开展网上简历、求职、专题培训等工作,提升学生就业技能。四是周密部署学生返校工作。该校细化工作流程,点对点统计学生行动轨迹、返校时间、返校交通工具及行程路线,逐一核实学生返校情况,建立“一人一档”返校信息台账,确保底数清、行程可追溯。

相关新闻

  • 澳大利亚邦德大学法学硕士项目专场宣讲会

    报告主题: 澳大利亚邦德大学法学硕士项目专场宣讲会   报告人: Kathy Atkins,邦德大学法学院对外事务与国际合作副院长   举办单位:国际交流合作处(港澳台事务办公室)、国际教育学院   报告地点:长安校区诚意楼智慧教室   报告时间:2025年03月24日 10:30至2025年03月24日 12:00 结束

    2025-03-24
  • 中国政法大学张法连教授应邀来校作专题讲座

    3月14日,国家社科基金重大课题研究首席专家、中国政法大学博士生导师张法连教授应邀来校作“聚焦新时代交叉学科发展与涉外法治人才培养”专题讲座。外国语学院副院长陈河主持讲座,学院党政班子成员,各系、教研室负责人,骨干教师、翻译硕士研究生参加讲座。 张法连立足国家战略需求,深入剖析了“交叉学科”作为我国新增学科门类,为推动教学研究从单一学科模式向交叉学科模式转型提供了重要推动力,也为法律外语作为新兴交叉学科提供了发展契机。他表示,涉外法治人才培养是国家参与全球治理、维护国家利益的关键,是新时代对外开放战略布局的重要组成部分。涉外法治专业人才培养需要依托法学与语言学学科的深度融合,应着力培养具备法律外语能力,具有国际视野、通晓国际规则,能够在国际法律事务中有效维护国家利益的高水平复合型人才。当前我国涉外法治人才缺口巨大,而法律英语作为法学与语言学交叉融合的新文科典范,是破解这一困局的关键抓手。 本次讲座对于我校培育新兴交叉学科增长点,创新涉外法治人才培养理念,提升我校法律外语教科研水平与竞争力都具有重要指导意义。 近年来,外国语学院主动对接国家战略需求,深化学科交叉融合,今后将持续加强国家级一流专业内涵建设,助力我校复合型创新型涉外法治人才培养。 (供稿:外国语学院 撰稿:陈叶 审核:杨华)

    2025-03-20
  • 杨建军:可信人工智能发展与法律制度的构建

    以可信为基础构建人工智能治理法律制度的必要性 人工智能技术发展突飞猛进,在诸多领域取得了令人瞩目的成就。但是,人工智能的发展,却因为技术的复杂性、风险的不完全确定性、技术滥用、法律规制的缺位等因素,还未完全赢得社会的信任。 (一)人工智能发展中还存在侵蚀其可信性的诸多因素 其一,人工智能技术发展还存在诸多可知或不可知的风险。当前,人工智能存在着失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险五个方面的伦理安全风险。其二,人工智能技术还不完全可信。(1)人工智能技术还未真正达到人们想象的发达程度,总体上还处于专用人工智能而不是通用人工智能发展阶段。(2)深伪技术加剧了人们对真实性瓦解的担忧。(3)技术安全等问题未完全解决。(4)与人工智能技术关联的问题是,人工智能的良好运行高度依赖个人信息和数据,而个人信息和数据管控本身还存在诸多问题,如App违反合法、正当、必要的原则收集与所提供服务无关的个人信息,“强制授权、过度索权、超范围收集个人信息”大量存在。其三,人工智能应用不当导致了侵权,致使人工智能不完全可信。其四,人工智能治理的技术使用还存在与其宣示的价值取向不一致的情形,损害了人工智能发展的价值基础。其五,规制人工智能的法律还不可信。 (二)人工智能法为什么要强调信任 信任,是人际关系得以长久维系的桥梁,是社会关系得以拓展的基础,是社会发展的内在条件,更是建立高效社会组织的基本前提。信任是社会合作得以进行的基础。信任成功与否取决于信任拓展范围的大小。人工智能技术的发展程度,不仅是由技术决定的,而且是由规制人工智能的伦理、法律等规范决定的。那些真正发展得良好的技术,必定也是法律保障有力、遵循了良好伦理规范的技术。 人工智能获得社会信任的法律基础 (一)人工智能的信任需要法律来保障 其一,传统社会基于血缘等关系构建了人际信任,人与人之间的信任多建立在熟人关系基础上。其二,到近现代社会,法律力图建构的是一种打破血缘关系、促进陌生人合作的普遍信任机制。现代社会共同体合作,主要建立在平等交换、契约自由基础上。其三,人工智能时代的信任须建立在人工智能技术安全、确定性的法律管控和社会伦理引领的基础上。 (二)捍卫现代法治的传统和公民的基本权利系确保人工智能可信的关键 人们对人工智能技术的信赖,建立在人工智能技术的安全性、保障和规制人工智能的法律制度的正当性、规制人工智能发展的制度的价值正义性、人工智能技术的实践运作对人类基本价值追求和人的基本权利维护的有效性的基础上。在支撑人工智能信任的技术维度、法律维度、伦理维度和实践维度中,最为关键的是为人工智能发展设定法律监管标准。 可信人工智能法律构建的伦理基础与可信特征 包括我国在内的许多国家均将“可信”作为人工智能的核心伦理原则,而“正当性”则是保障人工智能可信法律构建的基础。 (一)正当性是保障人工智能可信法律构建的伦理基础 全球对于人工智能治理可信问题的关注最初是在伦理文件中表达的。虽然存在一些争议,但是国际社会在“可信赖的人工智能”“负责任的人工智能”等核心理念上可能会达成一致。可信被很多国家人工智能伦理确认为了一项基本伦理原则,这一原则的提出,是为了解决人工智能的价值对齐问题,即确保人工智能的目标与人类的目标一致,使其“行为和决定符合人类的价值、目标、道德考量”。但是,单纯从伦理准则角度构建人工智能的可信存在诸多问题:(1)全球对于人工智能治理存在诸多争议,不同准则之间的冲突日益凸显,如“普惠发展与隐私保护”“安全可靠与非歧视要求的冲突”等;既有准则规范可能由私人部门提出,实际上是抵制政府监管的借口等。(2)作为伦理准则的可信标准,主要是一种倡导性、自律性准则,缺乏有效的监督执行机制,强制性程度不足;准则的表达多采概括性概念,可操作性不强。因而,国家立法所要做的工作就是,将伦理准则转化为法律准则,并通过更加具体的技术规则和法律规则设计,保障可信准则在人工智能产物或服务的研究、开发、设计、部署、使用、监管等具体环节得到落实。 (二)现行可信人工智能的评估标准 何积丰院士提出,人工智能的可信特征包括四个方面:(1)鲁棒性,即对未知情况具备一定的应对能力;(2)自我反省,即对自身性能或错误能够有所感知;(3)自适应,即能够成为通用的系统,能被应用到新的环境;(4)公平性,如应防止被不当力量训练为种族歧视的智能。有学者提出了可信人工智能系统的质量框架,包括:(1)尊重人类自治原则,含人权代理与监督。这是最为重要的原则,人工智能应当赋予人类新的权利而不是取代人类,且处于人类控制之下,不对人类基本权利或健康造成损害。(2)伤害预防原则,包括鲁棒性、稳定性、安全性(包括保密性、完整性、可用性)、可靠性、可问责性、隐私性、可重复性、准确性等。(3)可解释性原则,包括透明性、可解释性。(4)公平性原则,即确保群体或者个体不受偏见或歧视。(5)一般软件质量属性,如兼容性、可维护性、功能适用性、可移植性、性能效率、易用性等。 可信人工智能发展对法律构建提出的要求 (一)保障可信人工智能发展的多元路径与法律路径 保障可信人工智能发展的路径是多元的,大致包括四个方面。(1)侧重行业技术保障的路径。如中国信息通信研究院和京东探索研究院通过对全球范围内已经发布的84份政策文件按照词频进行梳理发现,当前人工智能治理原则已经收敛在“透明性、安全性、公平性、可责、隐私保护等五个方面”,支撑可信的技术包括“稳定性技术、可解释性技术、隐私保护技术、公平性技术、可视化技术”等。(2)技术认证的客观标准与伦理价值评价的主观标准结合的路径。(3)人工智能的风险防控路径。(4)法律、伦理、技术结合的路径。2019年,欧盟人工智能高级别专家组发布了《可信人工智能的伦理指南》,提出人工智能在整个生命周期中需要满足三个条件:合法性,即可信人工智能应当依法合规;道德性,即人工智能发展要符合道德原则、价值观;稳健性,即人工智能发展应避免造成无意的损害或负面影响。这实际上提出了保障人工智能可信发展的综合路径。 为人工智能设定法律标准,实际上是为人工智能的研究者、开发者、部署者等设定最为基本的标准,并通过法律的强制执行性推动各项标准的落实,以防人工智能的发展偏离人类追求的价值目标,实现对人工智能产业发展的规制、引领作用。 (二)可信人工智能对法律提出的期待 可信是一种文化,一种基于技术发展而形成的人对人工智能的认知和信任状态。为了保障人工智能的可信发展,法律制度的创设或者调整应当遵循一系列外在准则和内在准则。 1.可信人工智能法律构建应遵循的外在准则 外在准则构成了人工智能发展的国家社会目标,意在维护国家社会的福祉和法律的基本价值,是人工智能长远发展的基本准则。外在准则主要是一种理念,它无法通过人工智能技术而直接得到落实,但它可以成为评判人工智能技术发展是否正当的元准则,是人工智能发展的总的引领性准则。 其一,以人为本,捍卫人的基本权利。人工智能立法坚持以人为本,就应当保护个人信息和数据等数据权利,保护人格权、人的自主决策(自治权)和人类的主体性,还应当重视对社会弱势群体的权益保护。发展以人为本的人工智能,既应从技术发展的角度来设定制度,还应从人的基本权利的角度规制人工智能技术。以人为本还应当认真考量新产业发展对传统产业带来的冲击,如人工智能发展对传统产业领域的就业替代,就是一个需要高度关注的问题。以人为本的理念与宪法确定的人的基本权利之间具有密切的联系。 其二,人类主导原则。人类主导原则是从人与机器关系的最终意义上说的。因为人工智能在很多方面代替人进行道德选择和决策,但智能系统要为人类做决定,不能脱离人类伦理指导。当人工智能的决定不符合人类需要的时候,人类可以取代人工智能做出决定。人类主导原则还要求,人工智能的设定,还应当尊重国别文化的多元性、尊重个体差异,并采取措施防止“人类对机器人的过度依赖”。 其三,技术中立原则。技术中立原则是设计人工智能法律制度时应遵循的一项前置性原则。例如,如果在交通事故中对普通驾驶人按照过错责任进行归责,而对人工智能汽车采取严格责任原则予以归责并要求车主承担交通事故责任,那么就背离了技术中立原则,而适用过错原则可能是妥当的。 2.可信人工智能法律制度构建的内在准则 内在准则主要是法律技术性准则,这些准则大多可通过人工智能的技术设计、改进而得以落实。内在准则构成了人工智能法律的操作性准则。 其一,透明原则。人工智能的透明,首先是为了保障公民的知情权,让人们了解人工智能是如何运作的。透明原则是为了防止人工智能被运用于不法目的或不正当目的,有助于增强人的自主性,不透明的人工智能难以获得人的信任。 其二,安全原则。首先应确保网络安全、数据安全与算法安全。(1)可信意味着必须降低人工智能风险,采用“强制性标准”对风险进行管控,且风险管控措施应符合比例原则,不能向人工智能开发者提出过高的要求(欧盟人工智能法第64部分)。(2)对风险宜进行分类管控或是分级管控。如2024年欧盟发布的人工智能法案将人工智能的风险分为四级,采取不同的限制措施。中国的人工智能法(学者建议稿)则将人工智能分为关键领域与一般领域进行管控,对关键领域进行重点管控。 其三,公平原则。核心是,在人工智能的模型训练中,排除那些明显存在或者隐性存在文化偏见、性别歧视或种族歧视的数据集。 其四,隐私保护原则。隐私被侵犯,自然人的感知最为直接,显然,一个无法保护隐私利益的人工智能,是无法被人们接受的。 其五,可问责原则。确保人工智能的部署、使用产生的法律责任是可问责的。问责是对侵权者的追责,也是对受害者的救济。 保障人工智能可信发展的具体法律制度 (一)设计、评估与测试制度 其一,设计阶段的价值对齐制度。(1)法律应当将价值对齐作为一项基本义务赋予人工智能设计者。(2)人工智能在开发阶段就应注意防止偏见和歧视。首先,识别人工智能必须遵守的伦理价值和规范,其次,将这些规范通过程序编码写入人工智能系统,最后,为了验证人工智能是否与特定价值和规范兼容,应当对人工智能的规范和价值的有效性进行评估。 其二,评估制度。人工智能开发者、提供者在开发、提供人工智能产物和服务前,可自行或委托第三方机构对数据质量、潜在偏见歧视、科技伦理审查情况、公共利益影响、保护措施等内容进行安全风险评估。 其三,人工智能的安全测试制度。(1)为了保证安全,应建立密码技术管理制度,实现可信计算和可信验证。(2)设立沙盒监管制度,强化安全测试和安全风险监管。(3)人工智能提供者对人工智能生成内容的标示制度。 (二)建立针对人工智能领域的监督制度 (1)采用“宪法性AI”的思路,用人工智能监督人工智能,用“一个从属的AI模型评估主模型的输出是否遵循了特定的‘宪法性’原则(即原则或规则清单),评估结果被用于优化主模型”。目的在于推进价值对齐,将对可信人工智能影响最大的法律原则,落实在人工智能发展技术中。虽然人工智能监督人工智能是高效的,但考虑到人工智能法律监督仅处在初期,故设置针对人工智能法律监督的人类标注员依然是必要的、重要的。(2)分级监督制度。针对人工智能决策,针对性地建立一级监督制度或二级监督制度。一级监督制度针对部分自动化决策,即把人工智能决策作为专业人员决策的支持理由,决策最终由人类来选择;此等情形下,人工智能决策是人类决策的组成部分。二级监督针对的是完全自动化决策,即在人工智能作出决定后,人类对智能化作出的决策进行监督和纠正。总之,“一级监督在决策过程中具有构成性作用,而二级监督对一级监督进行检查和控制”。(3)隐私保护监督制度。(4)权力制约监督制度。 (三)完善人工智能的责任制度 其一,人工智能的使用者为了安全、放心,当然期望人工智能的开发或销售公司能够承担起全部责任。其二,在法律责任设定上,“应辅以问责框架,包括免责声明以及审查和补救机制等,以确保在开发、部署和使用之前和之后对人工智能系统及其结果负责和问责”。其三,刑法应增设相关责任条款,将对非法访问AI或从事黑客攻击的严重行为、让人工智能运行实行犯罪的使用恶意软件的行为纳入刑法调整范围。 结语 可信人工智能治理进程中的法律制度的构建,应以技术路径为基础,融合伦理准则,沟通人工智能发展的外在准则和内在准则,捍卫现代法治传统,保障宪法确认的公民的基本权利;同时,应当处理好人工智能发展中国际性与地方性、市场逻辑和治理逻辑、监管的包容与审慎、权力制约与权利保护、道义与理性等关系。

    2025-03-19