大语言模型对大学生价值观形成的机制研究的调查问卷
亲爱的同学:
你好!为了解大语言模型价值观对大学生的影响,特开展本次调查。你的回答将为研究提供重要参考,答案无对错之分,请根据实际情况填写。问卷采取匿名形式,数据仅用于学术研究,请放心作答!感谢你的支持与配合!
第一部分 基本信息
1. 你的年级:
大一
大二
大三
大四
研究生
2. 你的专业类别:
理工类
人文社科类
艺术类
其他
3. 你使用大语言模型(如ChatGpt 豆包 DeepSeek等)的频率是?
从未使用
偶尔使用(每月≤3次)
经常使用(每周1~3次)
高频使用(每天≥1次)
4. 如果使用过,你主要使用的生成式人工智能工具是(可多选):
ChatGPT
豆包
文心一言
DeepSeek
其他
第二部分
使用场景与行为习惯
5. 你最常使用生成式AI的场景是?(多选)
A.课程作业辅助(论文写作、解题思路、笔记整理)
B.考试复习与重点提炼(知识点总结、模拟题生成)
C.编程代码调试(Python、C++、Java等语言错误修复)
D.学术英语翻译与润色(论文投稿、文献翻译)
E.数据分析与可视化(实验数据处理、图表生成)
F.生活情感咨询(人际关系、压力疏导、校园适应)
G.兴趣创作与探索(小说、诗歌、短视频脚本生成)
H.社团与竞赛支持(活动策划、辩论论点、竞赛方案)
I.实用技能学习(PPT制作、Excel公式、新媒体运营)
J.其他(请注明 )
6. 你是否倾向于直接采用生成式AI提供的答案/建议?
完全依赖
经常采纳
选择性参考
仅作辅助验证
从不采纳
7. 你认为使用生成式人工智能对你的价值观形成是否产生影响?
有很大影响
有一定影响
影响较小
没有影响
8. 在使用生成式人工智能的过程中,你是否会质疑其提供信息的价值观导向?
经常质疑
偶尔质疑
很少质疑
从不质疑
9. 你是否因为使用生成式人工智能而改变了对某个问题的原有价值观立场?
经常改变
偶尔改变
很少改变
从未改变
第三部分 内容传递与知识重构机制
10. 你是否注意到生成式AI的回答存在以下特点?(多选)
信息筛选偏向特定价值观(如强调“效率”“实用主义”)
对争议性话题(如性别平等、政治立场)表述中立化
倾向于简化复杂问题的解释
未观察到明显倾向
11. 当AI生成的内容与你原有观点冲突时,你通常会:
接受AI的观点并调整认知
进一步查证其他来源
坚持原有观点
感到困惑但暂不行动
12. 你认为生成式AI是否影响你对以下领域的价值判断?(1-5分,1=无影响,5=极大影响)
1)社会公平与正义
2)个人成功标准(如财富、名誉)
3)文化多样性认同
4)科技伦理(如隐私、AI监管)
第四部分 交互反馈与行为强化机制**
13. 你是否因AI的以下反馈而改变过行为?(多选)
因AI对“高效学习”的建议调整时间管理方式
因AI的伦理判断(如环保、诚信)修正个人决策
因AI的社交模拟对话改变人际沟通模式
无明显影响
14. 你认为AI的“人类偏好对齐”(如回答更礼貌、积极)是否会让你更愿意遵循其建议?
显著强化
部分强化
无影响
反而降低信任
15. 长期使用AI后,你对以下能力的自我评估变化是?(1-5分,1=显著下降,5=显著提升)
批判性思维能力
独立解决问题能力
多元价值观包容度
第五部分 伦理冲突与价值观反思
16. 你是否遇到过AI生成以下内容?(多选)
明显违背伦理的内容(如歧视性言论)
虚构事实但逻辑自洽的“伪知识”
文化偏见(如贬低特定地域/群体)
未遇到过
17. 当AI生成的内容与你的价值观冲突时,你更可能归因于:
AI技术局限性
训练数据偏见
自身认知偏差
社会规范差异
18. 你认为高校应如何应对AI对价值观的潜在影响?(开放题)
19. 你认为大学生如何避免大语言模型带来的价值观偏差?(开放题)
关闭
更多问卷
复制此问卷