今晚,围绕“高企报告、科技项目可行性研究报告编写”经验进行分享与交流。
非常感谢罗老师、光英老师的辛苦分享,也感谢几百位同行老师工作日不辞辛劳全程参与了本次研讨会。
演示的工具用的是.5以及光英老师自己搭建的镜像白马AI。
一、AI的底层逻辑是驯化的方向
(一)许多AIGC模型都结合:强化学习的技术
1、强化学习,其实可以看作一个从试错到反馈的过程,通过不断地试错来找到一个合适的策略;所以我们需要不断地和AI交流,通过反馈建立判断机制。
2、每一个行动的反馈,其实都是有延迟,必须得下次才得到纠正。
3、综合适应强化学习,选择倾向于“试错”和“延迟反馈”两大特征。
(二)深度学习主要运用在计算机视觉、自然语言处理等涉及复杂特征的领域
各类AIGC模型都是深度学习模型,所以需要大量的数据,同时也是基于大数据来做分析、预测和判断。
二、搭建逻辑为方向
理解AI的模型和建设过程,让我们明白使用和驯化AI过程,掌握注意事项以及策略。
步骤一:收集示范数据并训练一个监督学习的策略
驯化AI:AI需要不断地学习,所以需要我们给出答案,她会不断地学习,吸收,转化,演绎……
步骤二:收集对比数据并训练一个奖励模型
驯化AI:对于结果给予反馈,我们对答案的输入,以及排序,最终形成一个奖励模型,这会让每个人驯化出不同的AI
步骤三:使用强化学习算法优化针对奖励模型的策略
驯化AI:多轮奖励模型训练、优化、重复优化,AI就能更好地理解我们的意图了。
三、技术局限性依然存在
1、乃至所有机器学习模型都是基于已有数据、知识、关联、标签等做出的预测,它依赖概率预测,错误答案很常见。
2、的人工准确度、表达程度、反馈值等还可以提升,RLHF机制还需优化。
3、“奖励模型”和是技术架构的两大痛点,也是目前深度学习和强化学习研究的难题。
4、在各项NLP任务上表现惊人,但是模型本身还像一个黑盒,用户对AI可信度存疑。
四、的使用注意事项
1、一本正经地胡说八道:有时会写出看似合理,但不正确或荒谬的答案,需要我们甄别。
2、对词很敏感,相同意思不同的词可能答案不同,甚至语气词或者反问,都会造成不同的答案。
3、回答问题套路满满:回答通常过于冗长并过度使用某些短语,比如首先、其次、最后,总之等。
4、喜欢不懂装懂:对于模棱两可的问题,AI通常会猜测意图,而非再提问题。
5、泄密问题:技术问题放入AI可能造成方案、参数等泄密,必须要引起重视。
最后结论:
AI撰写高企申报书完全胜任,完成本一本,且质量非常高;但是在可行性研究报告撰写中需要逐步提问,甚至每个问题进行引导才能完成。
切记不要用AI撰写真的专利和真实技术报告,以免泄密。
所以,何老师的结论就是:重复简单的撰写可以交给AI,但依然不能一键生产报告,我们未来的主要工作将是“”。
引用AI之父的名言作为结束:
“人们总喜欢活在舒适区内,用粗暴的断言安慰自己,例如机器永远无法模仿人类的某些特性。但我给不了这样的安慰,因为我认为并不存在无法模仿的人类特性。”
–未完待续–