大事件!请注意!AIGC正在疯狂“污染”学术界

原创 | 文 BFT机器人 

图片

2023年被称为AIGC元年,大模型也成为重中之重,市场预期其创新性甚至远大于移动互联网。AIGC或进一步解放生产力,帮助企业降本增效,影响并改变着互联网的获取信息和内容产出方式。以ChatGPT为代表的新一代人工智能技术迅猛发展,它以强大的语义理解能力、逻辑推理能力和多轮对话能力快速席卷全球,各类大模型层出不穷,并与教育、医疗等行业深度融合,产生了更为智慧、更高质量的服务,也创造了许多新的业态。

然而,大模型人工智能生成内容(Artificial Intelligence Generated Content,AIGC)也给教育、科研、出版、医疗等领域带来了全新挑战,尤其会对学生教育和出版模式产生颠覆式影响。其内容是否可信、推理是否可靠、信息安全能否保障等一系列问题亟待解决。

AIGC的机遇与挑战

扫描二维码关注公众号,回复: 17069162 查看本文章

AIGC嵌入社会生活的同时对社会伦理与价值观产生了深远的影响,并且给个人自由和社会秩序也带来问题和挑战。

当用户强烈依赖算法推送的决策建议进行决策时,一定程度会使用户会放弃自主思考和试错,由AIGC“一键生成”的内容可能会冲击行业珍贵的独创精神与工匠精神。AIGC所犯的事实性错误会在网上快速传播,容易形成带有错误或偏见的社会舆论。特别是当AIGC涉及到政治选举,算法有选择的推送某些政治派别或政治思想给用户时,会影响或左右选民的政治判断,从而对人类民主带来冲击。

AIGC还可能会带来价值观偏差与歧视。AIGC的内容可能会包含着强化刻板印象、误导公众认知、伤害弱势群体的信息出现,这些信息在传播和解读的过程中潜移默化地重塑人们的价值观并扭曲特定人群的形象。有研究发现,当输入CEO、律师等关键词时,DALL-E-2会更高频地生成男性和白色人种的人类图像。有些机构将AIGC评估得出的结果作为衡量用户价值的标准,像是一些金融机构会依据AI的“信用评分”对人群分类和社会地位排序,把特定领域对个人评价扩大到其他领域,带来更大范围的偏见与歧视。


基于种种的问题与挑战,2023年7月10日,教育部、科技部等七部门联合发布的《生成式人工智能服务管理暂行办法》中明确指出,要“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。”同时也提出,要“完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引”。科研、教育和出版领域用户也通过各种渠道呼吁知网利用自身数据优势和技术积累,研发相关技术能够识别人工智能生成内容。

学术界的福音到,论文检测的好帮手

图片

该系统以知网结构化、碎片化和知识元化的高质量文献大数据资源为基础,按照预训练大语言模型的算法逻辑,首次提出“知识增强AIGC检测技术”和若干检测算法,从语言模式和语义逻辑两条链路,用AI对抗AIGC,最终实现了快速、准确识别学术文本中的AI生成内容。

系统支持检测国内外各类大模型生成的中文文本,涵盖领域广泛;经大量数据测试结果显示,系统可有效识别出不同程度疑似AI生成的文本内容,检准率高。系统界面简洁、易用,支持上传单/多篇各类格式文档、压缩文件或手工录入等多种方式,可实时追踪检测进度、查看检测结果,并提供可视化报告单,清晰直观呈现AI生成文本详情。此外,还可支持期刊论文、学位论文、会议论文以及图书专著、科研成果、科技报告、课程作业检测等多个应用场景。

作者 | 居居手

排版 | 春花

审核 | 猫

若您对该文章内容有任何疑问,请与我们联系,将及时回应。

猜你喜欢

转载自blog.csdn.net/Hinyeung2021/article/details/133161150