更懂社媒的推理大模型!数说故事SocialGPT-R1全新升级发布

发布时间:2025-05-13作者:DataStory

@momo

“这款手机的续航就像我的恋爱保质期,撑不到下午就没电了。”

*消费者满意这款手机的续航吗?


@nana

“看了你们的新品图,突然觉得旧款好像也挺香的……”

*消费者更喜欢新品还是旧款?


@nyny

“零食流浪记丁香水岸店双旦宠粉啦”

*这个店主要卖零食还是香水?


@Vvi_8

“10r的快乐!希望它火…...但不要太火”

*博主到底希不希望它火?


当博大精深的中文遇上瞬息万梗的Social语言,这种 “复杂的说话方式” 让社交平台成为语言模型最具挑战性的应用场景之一。社交语境中的信息往往隐晦、情绪化且高度多义,用户表达交织着复杂的语用结构。传统大模型虽能生成流畅回复,却难以深入理解用户言语背后的推理链条与动机逻辑,并做出有商业价值的洞察。以DeepSeek-R1为代表的推理大模型问世,以逻辑推理解决了一部分问题,但依然存在不少「误判」和「幻觉」。


面对这些挑战,作为行业领跑者,在刚结束不久的“数说故事 D3 智能营销论坛暨十周年战略发布会”上,数说故事升级发布了新一代更懂社媒的推理大模型「SocialGPT-R1」,它也是数说故事2023年发布的国内首个专注“Social”领域的商业大模型——SocialGPT的全新升级版,让社交推理AI应用在垂直领域实现深度突破。


值得关注的是,「SocialGPT-R1-7B」构建了从数据构建、模型训练到业务落地的全链路技术闭环,成为数说故事 AI Agents 矩阵的核心技术底座,为数说故事AI+Insights、AI+Marketing、AI+sales三大业务战略做强有力支撑,并高效赋能社媒监测、智能舆情分析、智能营销等关键业务场景,为决策者提供实时、精准的分析结果。





模型升级

PART 01

从听懂人话到精准洞察

DataStory

SocialGPT- R1

与SocialGPT相比,全新升级的SocialGPT-R1-7B依托数说故事10年以来累积的社媒分析场景下的Social推理数据集,采用「监督学习+强化学习」双阶段训练策略,实现三大领域的升级突破:


准度

以更贴近人的推理方式,实现对社交平台中隐含语义、语境歧义和情感倾向的精准识别。


深度

能解构营销事件脉络、捕捉消费者潜在需求,达成更深度的社媒洞察。


速度

在对Social数据与分析场景相关的处理速度上,比同类主流推理模型更快速。


在升级过程中,数说故事从数据构建和模型训练两大技术要素切入,让SocialGPT-R1-7B从“听懂人话”到实现“精准洞察”。


数据构建:打造高质量Social推理数据集

优秀的模型基于优秀的数据,数据质量对模型准确率有着至关重要的影响。


为了让模型真正“听得懂、看得透”社交平台上的复杂内容,数说故事基于海量的Social数据和丰富的商业场景实战经验,自主构建了高质量的推理数据集 「SocialGPT-R1-Data」,该数据集涵盖多个具有代表性的关键任务类型,包括社媒杂音去噪, 消费者观点理解, 事件总结与分析, 人群洞察与推理, 深度洞察与推理,全面覆盖社交场景中的核心洞察需求。


在数据构建过程中,一方面借鉴 Deepseek-R1 的先进数据架构经验,构建底层逻辑框架;另一方面结合人工进行多轮语义校准,确保每条数据的商业场景适配性和逻辑严谨性。为了提升模型的推理能力和回答准确性,数说故事从多个维度对数据结构进行了精细设计:

●明确每条数据的任务目标与输出风格,让模型知道在什么场景下该怎么 “说话”


●引入“思维链”式提示,引导模型学习逐步推理的思考路径,教会它像人类分析师一样层层推理


●加设双重验证机制,确保“最终答案”与“推理过程”一致可信,不瞎编内容,减少模型「幻觉」

此外,采用temparature为 0.7 的采样方式生成初始数据候选,控制内容的多样性与稳定性;并通过多个行业专家进行联合评审,筛选出高可信度的奖励标注数据。这一部分数据将作为强化学习阶段的重要支撑,进一步提升模型在实际应用中的表现力与可靠性。


模型训练:SFT + RLHF 双阶段融合,多路径优化RL

为提升模型在推理链条生成中的稳定性与泛化能力,数说故事采用双阶段训练策略:


阶段①

Supervised Fine-Tuning(监督微调)

基于 SocialGPT-R1-Data对模型进行指令微调,帮助模型掌握社交语境中典型推理结构,形成稳定的长链生成能力。具体来说就是用社交场景的 “标准答案” 教会模型 “理解规则”,让它能看懂用户的 “话里有话”,比如解读一篇几百字的用户差评,并推理出 “用户表面吐槽包装,实际不满性价比” 这种深层结论。


阶段②

Reinforcement Learning(强化学习)

让第一阶段微调后的模型当“裁判”,给不同的回答打分,比如同样分析 “便携防晒霜太粗”,“用户嫌体积大”和“用户夸防晒效果好”哪个回答更准确?答案更优的给高分,这些分数即为「奖励信号」。训练奖励模型的同时,用三种强化学习的“训练方法”让模型“闯关”:


•PPO(Proximal Policy Optimization)

•REINFORCE++

•GRPO(Group Relative Policy Optimization)


强化学习阶段对生成内容的“格式准确性 + 内容合理性”双向建模,显著提升模型对用户意图、立场推理等复杂任务的表现力。比如分析用户评论时,不仅能说出 “用户在吐槽”,还能准确指出 “吐槽的是产品哪个点”“背后反映了什么需求”,甚至给出 “品牌该怎么改进” 的建议。


最终让模型从能听懂变成能活用,帮助品牌企业在社交平台上真正“读懂用户心”。




洞察效果

PART 02

Social场景的智能分析秘书

DataStory

SocialGPT- R1

升级完成后,针对社媒洞察场景,SocialGPT-R1-7B性能表现在系统评估中,与主流推理型大模型相比,实现多维度领先,RL加持效果明显。


从评估结果看,SocialGPT-R1在社媒杂音去噪、消费者观点理解、事件总结与分析、人群洞察与推理的任务中均取得了最高分,不仅优于同等模型大小DeepSeek-R1-Distill-7B,也比size更大的QWQ-32B表现更优异。同时,从GenLen50%指标(回复生成长度中位数)可以看出,SocialGPT-R1的回答更为简洁精炼。


社媒杂音去噪:

智能分辨精细分拣

社交平台上海量的碎片化内容中,充斥着大量“无效噪音”,去噪是智能分析的第一步,不仅是自动过滤重复信息、无意义表情等明显“噪音”,更包含对“歧义内容与明确内容的智能分辨”,实现从“粗放过滤”到“精细分拣”的技术升级。


以“零食流浪记丁香水岸店双旦宠粉,12月23、24日会员购物正价商品88折”为例,该文章内容中店家到底要卖「零食」,「丁香」还是「香水」呢?通用大模型会直接把文章中提及的“香水”判定为与分析对象行业一致的无歧义内容,SocialGPT- R1则能结合语境,分辨出其中的“香水”有可能是地理名称或店铺命名,存在歧义。


人群洞察与推理:

挖掘隐藏关系读懂用户

根据品牌社媒内容可总结出品牌的诉求、受众人群、活动时间、发布产品、代言人、消费者反馈等信息,在以“2022罗意威春夏时尚盛典”为例的活动信息总结中,其中SocialGPT- R1针对受众人群的总结更为突出,通用大模型的总结只能看到“表面身份”,把用户总结成“追求个性的年轻至成熟群体”,而SocialGPT- R1能从内容中挖掘“隐藏关系”,总结出“都市精英与时尚爱好者”的受众人群形象,与品牌形象更相符。


消费者观点理解:

提炼核心声音找准定位

以“总结网友对且初平替产品的聚类评论”为例,SocialGPT- R1可通过语义结构,解析消费者在社媒评论、产品反馈等场景中表达的显性观点与隐性需求,提炼出真正影响消费决策的核心诉求,进而让品牌精准对准用户 “痛点”“爽点” 或 “痒点”,从中挖掘到更符合品牌定位的细致特征,给品牌的市场定位带来更深层次的建议。


从社媒内容的“噪音迷雾”中精准捕捉有效信息,到从用户碎片化表达里拼贴出完整的需求画像,找准品牌市场定位,SocialGPT- R1不仅让模型“看懂”社交内容,更能“看透”内容背后的消费逻辑,从“用户说什么”到“用户为什么这么说”,再到“企业该如何应对”,成为Social场景的“智能分析秘书”,实现智慧对话,让AI洞察升级到Next Level。


基于全新升级的SocialGPT- R1,数说故事正在构建系列AI Agents,融入产品与服务矩阵中,已有人群洞察Agent、新品营销Agent、种草选题Agent、KOL臻选Agent,体验管理Agent、智能选品Agent等等,覆盖Insights-Marketing-Sales的Social营销全链路。


未来,数说故事将持续深化SocialGPT- R1的技术能力,加速Agent矩阵的落地应用,以更精准的洞察,更高效的创意生成和更智能的决策支持,全面赋能Social营销全链路,推动行业智能变革,助力品牌全球业务增长。


微信扫描二维码

微博扫描二维码