Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

  • A+
所属分类:helium10教程
摘要

本文探讨了如何通过Helium 10与Google Search Console的深度联动分析,预判亚马逊站外流量的衰减点。文章核心在于整合Helium 10的亚马逊站内数据(如关键词排名、转化率)与Google Search Console的站外流量数据(如搜索点击率、关键词表现),通过交叉分析识别流量下降的早期信号(如站外关键词搜索量下滑、自然点击率降低等),并结合亚马逊站内销售数据建立预警模型,帮助卖家提前优化SEO策略、调整广告投放或拓展流量渠道,避免因站外流量波动导致的销售损失。

一、Helium 10 与 GSC 数据打通的核心逻辑

helium 10 的强大市场洞察与 Google Shopping Connect (GSC) 的精准广告数据打通,其核心逻辑并非简单的数据整合,而是构建一个从“宏观市场洞察”到“微观广告表现”,再返回“优化决策”的闭环数据驱动体系。这个体系的实现,依赖于底层数据的精准对齐与上层业务逻辑的深度耦合,旨在让广告投放的每一分花费都有据可依,精准触达高潜力客群。

1. 统一商品标识:建立数据映射的基石

数据打通的首要前提是确保两个平台谈论的是“同一件商品”。Helium 10 追踪的是亚马逊 ASIN,而 GSC 广告 campaign 的核心是 Google 产品 ID。因此,建立 ASIN 与 Google 产品 ID 之间稳定、唯一的映射关系,是整个逻辑链条的基石。在实践中,这通常通过卖家自身的 SKU 系统或产品数据库作为“中央翻译官”来实现。当卖家上传产品信息至 GSC 时,会包含一个能与自家 ASIN 库精确匹配的自定义标识符(如 SKU)。通过这个共通字段,系统才能将 Helium 10 中关于该 ASIN 的市场趋势、关键词排名、竞品分析等数据,与 GSC 中该产品对应广告组的点击率、转化率、ACoS 等指标进行无缝对接。没有这个精准的映射,任何数据聚合与对比都将是无源之水,导致错误的归因与决策。

content related visual

2. 关键词策略闭环:从发现到验证的决策链路

数据打通的核心价值体现在关键词策略的闭环优化上。Helium 10 凭借其强大的 Xray 和 Cerebro 工具,能够挖掘出海量高需求、低竞争的蓝海关键词,为卖家提供“弹药库”。然而,这些关键词在真实广告环境中的表现如何,需要 GSC 的数据进行验证。打通后,卖家可以将在 Helium 10 中筛选出的潜力关键词直接导入 GSC 广告系列进行测试。GSC 会返回这些关键词的真实搜索量、点击成本和转化数据,这些“实战成果”又会反哺回 Helium 10 的分析体系。例如,某个在 Helium 10 中显示搜索量极高的关键词,在 GSC 中却点击率惨淡,这可能意味着其与产品的匹配度或意图不符,需要卖家反思listing内容或调整出价策略。反之,一个转化率极高的 GSC 关键词,可以引导卖家在 Helium 10 中深度剖析其相关的长尾词变体,进一步扩大优势。这个“发现-测试-验证-再发现”的闭环,将市场洞察与广告成效紧密结合,使关键词策略从“凭感觉”进化为“靠数据”。

3. 流量归因与反哺:优化全渠道用户旅程

更深层次的逻辑在于流量归因与反哺,从而优化全渠道用户旅程。GSC 广告为亚马逊店铺带来了站外流量,但这些用户进入亚马逊后的行为——例如是否浏览了其他产品、最终购买了哪个ASIN——这些数据是 GSC 自身无法看到的。通过数据打通,可以将 GSC 的广告点击事件与 Helium 10 追踪的亚马逊站内行为数据(如我的产品页面流量、销售数据)进行关联分析。卖家可以清晰地看到,来自 Google 的哪些搜索词或广告素材,最终引导了高价值的购买行为或跨品类加购。这种跨平台的归因分析,使得卖家能够评估 GSC 广告的真实 ROI,而不仅仅是单次的转化数据。基于此,卖家可以优化 GSC 广告的受众定位和出价策略,将预算更多地投向那些能带来“高价值客户”的流量渠道,最终实现从吸引流量到提升客户终身价值(LTV)的全方位增长。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

二、站外流量衰减的早期预警信号识别

站外流量的稳定增长是业务健康的重要指标,但衰减往往并非一蹴而就,而是通过一系列可量化的信号逐渐显现。识别这些早期预警信号,是避免流量断崖式下跌、及时调整策略的关键。监控应超越表面数据,深入挖掘用户行为与来源渠道的微妙变化。

content related visual

1. 核心引流渠道效能指标异动

站外流量依赖于特定的引流渠道,这些渠道的效能异动是首要预警信号。首先,需重点关注各渠道的点击率(CTR)与转化率(CVR)。若某个核心渠道(如特定社交媒体、合作联盟或搜索引擎)的CTR在无明显原因(如广告创意更换、投放力度减小)的情况下,连续数周呈现持续下滑趋势,这表明该渠道的用户吸引力正在减弱,可能是内容素材老化、受众审美疲劳或平台算法调整所致。其次,跳出率的异常升高和平均会话时长的缩短更具警示性。当大量用户通过渠道链接抵达后迅速离开,说明流量与落地页的匹配度降低,或渠道引流的用户质量本身就在下降。这可能源于渠道用户画像的变迁,或是竞争对手在同一渠道提供了更具吸引力的替代内容,抢夺了用户注意力。

2. 流量结构与用户参与度深层恶化

流量衰减的早期信号同样隐藏在整体流量结构与用户参与度的深层变化中。一个健康的流量来源应是多元化的,若发现流量过度集中于某一两个渠道,且其他渠道的流量贡献持续萎缩,这种“孤注一掷”的结构将使整体流量变得异常脆弱,一旦核心渠道出现问题,后果不堪设想。此外,必须警惕新用户比例的下降。当新访客占比持续走低,意味着从站外获取新用户的能力正在衰退,品牌 reachability 和市场渗透率出现了问题。最后,用户参与度的深层指标,如直接访问流量与品牌词搜索量的微幅下降,虽不易察觉,却是致命信号。它表明即便通过站外渠道吸引用户初次访问,却未能成功建立品牌认知与用户忠诚,导致他们无法通过直接方式回访,流量的可持续性基础正在被侵蚀。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

三、关键词搜索趋势与亚马逊流量关联分析

亚马逊的流量分配机制高度依赖于关键词搜索,卖家能否精准捕捉并响应搜索趋势,直接决定了产品的曝光率与转化率。分析关键词搜索趋势与流量的关联性,本质是解码消费者需求动态与平台算法的匹配逻辑。以下从核心逻辑、数据工具应用及趋势响应策略三个维度展开分析。

content related visual

1. 搜索趋势与流量分配的核心逻辑

亚马逊的A9算法通过关键词相关性决定产品排名,而搜索趋势的变化是消费者需求的直接信号。当某关键词的搜索量上升(如季节性需求或突发热点),平台会动态调整流量分配策略,优先展示与该关键词高度匹配的产品。例如,冬季“取暖器”搜索量激增时,相关Listing的流量入口会短时间内扩张。但若卖家未能及时优化标题、五点描述及后台ST(Search Terms),算法将无法识别其产品与趋势关键词的关联性,导致流量流失。反之,过度堆砌无关关键词虽可能短期提升曝光,但会因转化率下降被算法降权。因此,流量获取的核心在于关键词相关性与趋势时效性的平衡。

2. 数据工具在趋势捕捉中的应用

精准的流量分配依赖数据支撑,卖家需通过工具监测关键词搜索趋势的变化。亚马逊品牌分析(Brand Analytics)提供的“搜索词表现报告”能直观展示关键词的搜索量、点击转化率及竞争度;第三方工具(如Helium 10、Jungle Scout)则通过历史数据预测趋势周期,例如“返校季”前“文具”类目关键词的搜索峰值。数据驱动的关键在于建立“趋势-关键词-流量”的映射模型:当工具监测到“露营帐篷”搜索量连续3周增长20%时,需立即检查现有Listing是否包含“便携”“防风”等高频衍生词,并通过广告测试验证流量转化效果。忽略数据工具的卖家往往陷入被动,待趋势明朗后再优化时,流量红利已被竞品抢占。

content related visual

3. 动态优化策略与流量转化

关键词趋势的快速变化要求卖家采取动态优化策略。短期策略包括:针对突发热点关键词(如“世界杯周边”)快速创建变体或优化现有Listing,并配合SP广告抢占初期流量;中期策略需结合搜索量的增长斜率调整竞价,例如对“空气净化器”的衍生词“除甲醛”在旺季前逐步提价;长期策略则需通过客户搜索词报告挖掘长尾关键词,如“婴儿辅食机研磨”,以低竞争成本获取精准流量。同时,需警惕“趋势陷阱”——某些关键词虽搜索量高,但转化率极低(如“免费赠品”),此类流量会拉低Listing权重。优化闭环应遵循“监测-测试-迭代”逻辑:通过广告报表分析点击成本(CPC)与订单转化率(ACOS),持续淘汰无效关键词,将预算集中投放于高ROI趋势词,实现流量与销量的同步增长。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

四、基于用户行为指标的衰减预判模型

1. 核心指标体系构建

用户行为衰减预判模型的核心在于构建多维度的指标体系,以捕捉用户活跃度变化的早期信号。首先,基础行为指标包括登录频率、会话时长、页面浏览量(PV)及点击流分布,这些直接反映用户的即时参与度。其次,交互深度指标如关键功能使用次数、内容生成量(评论/分享)及社交互动行为,用于衡量用户对平台价值的认知程度。最后,时间衰减因子需纳入模型,通过加权近7日、30日及90日的行为数据,确保指标对短期波动敏感,同时过滤噪声干扰。例如,登录频率的衰减系数可设定为0.9^n(n为天数未登录天数),以量化行为衰退趋势。

content related visual

2. 模型算法与阈值设定

模型采用逻辑回归与随机森林融合算法,结合历史用户流失数据训练预测权重。逻辑回归负责线性特征的显著性筛选(如登录频率下降30%为强预警信号),而随机森林则捕捉非线性关联(如会话时长缩短与功能使用减少的叠加效应)。输出层通过动态阈值机制判定风险等级:低风险(0-30%衰减概率)触发系统自动激励,中风险(30%-60%)启动人工干预,高风险(>60%)则标记为流失待挽回。阈值的设定需结合业务场景迭代优化,例如电商用户在购物车放弃率跃升25%时即触发中风险警报,而内容平台则更侧重评论互动量连续下降的阈值响应。

3. 模型验证与迭代优化

模型有效性需通过A/B测试与回溯验证双重评估。在A/B对照组中,启用模型预测的干预策略应使用户留存率提升15%-20%,且回溯测试需确保预测准确率(Precision)不低于85%,召回率(Recall)覆盖90%以上的实际衰减用户。持续迭代的关键在于反馈闭环:将新流失用户的行为特征反哺训练集,调整指标权重(如新增短视频完播率指标),并优化衰减周期窗口(从30天扩展至60天以适应长尾用户)。此外,引入SHAP值分析可解释模型决策依据,例如明确某类用户因“点赞行为减少40%”被判定为高风险,从而指导运营策略的精准落地。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

五、竞品站外流量变化的监测与对比策略

content related visual

1. 多维度监测竞品站外流量来源

监测竞品站外流量需从多个维度切入,确保数据全面且具参考性。首先,通过工具如SimilarWeb、Ahrefs或Semrush,分析竞品的外部流量来源,包括搜索引擎(自然/付费)、社交媒体、 referral网站、邮件营销及直接访问等。重点观察流量占比最高的渠道,例如,若竞品主要依赖社交媒体引流,需进一步拆分其平台分布(如Facebook、Instagram、TikTok),并监测其内容策略(短视频、图文推广等)。此外,需跟踪竞品的品牌关键词搜索量变化,结合Google Trends判断其品牌影响力波动。对于付费流量,可通过SpyFu或SEMrush广告库解析其广告文案、投放时段及目标受众,识别其流量获取成本(CAC)结构。最后,监测竞品在行业媒体、论坛及KOL合作上的曝光情况,量化其外部流量贡献率。

2. 动态对比竞品流量策略与效果

静态数据无法反映竞品策略的动态调整,需建立周期性对比机制。按周或月维度,对比竞品各渠道流量变化趋势,例如,若其社交媒体流量突增,需结合其近期活动(如折扣、联名)分析是否为短期刺激所致。同时,对比竞品在不同渠道的转化效率,如通过SimilarWeb的“访问时长”“跳出率”等指标,评估其流量质量。若竞品在某一渠道的流量增长但转化率下降,可能意味着其引流策略与用户需求错配。此外,需横向对比竞品与自身在相同渠道的表现,例如,竞品在谷歌搜索的自然流量占比高于自身,需深挖其关键词布局或外链建设策略。对于突发性流量波动(如因公关事件或负面新闻),需快速定位原因并评估对自身市场的潜在影响。

content related visual

3. 数据驱动优化自身流量策略

监测与对比的最终目的是优化自身流量获取策略。基于竞品数据,识别其高效渠道并纳入自身测试范围,例如,若竞品在Quora的问答营销带来稳定流量,可尝试类似策略。同时,规避竞品低效或高风险渠道,如若其依赖的某社交平台流量骤降,需警惕平台政策变化。此外,结合竞品流量成本数据,调整自身预算分配,例如,若竞品在Facebook Ads的ROI持续下降,可转向其他渠道或优化广告素材。最后,建立竞品流量预警系统,设置关键指标阈值(如流量波动超过20%),确保及时响应市场变化,保持竞争优势。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

六、流量衰减的归因分析与诊断路径

1. 外部因素:渠道环境与竞争格局变化

流量衰减的首要归因需从外部环境切入。搜索引擎算法更新、广告平台政策调整或行业竞争加剧,均可能导致自然流量或付费流量骤降。例如,谷歌核心算法更新会直接影响网站排名,而短视频平台(如抖音、TikTok)的流量分配机制调整,可能使原有内容分发效率降低。此外,竞争对手的低价策略或营销创新也会分流用户。诊断此类问题需结合工具监测:通过Google Search Console分析关键词排名波动,利用SimilarWeb对比竞品流量来源,或通过平台后台数据查看广告投放成本(CPA)及曝光量是否异常。

content related visual

2. 内部因素:内容质量与用户体验衰退

内部因素是流量衰减的深层诱因,通常与内容、技术及用户行为相关。内容层面,原创性下降、更新频率不足或主题偏离用户需求,会导致搜索权重降低及用户跳出率上升。技术层面,页面加载速度变慢、移动端适配问题或死链增加,均会损害用户体验和搜索引擎评分。用户行为数据是关键指标:若平均会话时长缩短、新用户比例下降或转化路径中断,需通过热力图(如Hotjar)分析用户交互行为,或借助A/B测试优化页面设计。内容诊断可结合SEMrush的“内容审核”工具,识别低效文章并针对性改写。

3. 平台策略:流量分配规则与用户偏好迁移

诊断路径总结:建立分层数据监控体系(外部环境→内部运营→平台策略),优先排除突发性异常(如服务器故障),再结合归因模型(如归因分析漏斗)定位核心问题,最终制定针对性优化方案。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

七、站外流量衰减的应对策略优化方案

content related visual

1. 流量来源诊断:精准定位衰减根源

站外流量衰减的直接表现为访问量下降,但核心问题需通过数据溯源找出具体症结。首先,通过GA、百度统计等工具分析流量渠道结构,锁定衰减最显著的来源(如搜索引擎、社交媒体、外部链接)。其次,拆解关键指标:若搜索流量下滑,需检查关键词排名波动、索引状态或算法更新影响;若社交流量减少,需分析内容触达率、平台算法调整或用户活跃度变化。对于外部链接,需排查合作方网站权重变动或链接失效问题。最后,结合用户行为数据(如跳出率、停留时长)判断流量质量,区分“量减质优”与“量减质劣”两种情况,避免盲目补救。

2. 渠道优化策略:从流量获取到留存转化

针对不同渠道制定差异化优化方案。搜索引擎端,优先修复技术问题(如死链、404页面),优化长尾关键词布局,同时加强本地SEO和语义化内容生产;社媒端需调整内容形式,例如短视频平台侧重强互动性内容,微信公众号强化深度干货分发,并利用广告投放补足自然流量缺口。外部合作方面,可拓展行业媒体、KOL矩阵等新合作渠道,同时通过UTM参数追踪回流效果,动态调整资源分配。此外,建立流量漏斗模型,重点优化落地页加载速度、CTA设计及用户路径,提升流量转化效率。

content related visual

3. 风险预警与长效机制构建

流量波动具有周期性,需建立动态监测体系。其一,设置流量阈值警报,当单渠道日流量跌幅超过15%时自动触发复盘流程;其二,定期更新渠道评级表,按ROI(投资回报率)与增长潜力排序资源优先级;其三,储备替代流量池,例如布局新兴平台或开发私域流量(社群、小程序),降低单一渠道依赖。长期来看,需将流量策略与品牌建设结合,通过IP化内容、用户分层运营提升NPS(净推荐值),形成自然裂变能力,从而对冲外部流量波动风险。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

八、数据联动下的流量衰减预测实战案例

1. 多源异构数据融合与特征工程

流量衰减并非单一因素导致,而是多维变量共同作用的结果。本案例以某电商平台“618”大促后的流量下滑为背景,整合了用户行为日志、广告投放数据、竞品动态及宏观经济指标共计12类异构数据源。首先,通过ETL工具对数据进行清洗与对齐,构建统一的时间序列数据集。关键在于特征工程:从用户行为中提取“人均浏览时长”“加购转化率”等高阶特征;与广告投放数据关联,生成“单客获客成本(CAC)”“渠道ROI”等成本效益指标;同时引入竞品促销强度指数作为外部冲击变量。采用Pearson相关性与递归特征消除(RFE)相结合的方法,最终筛选出包括“前日新用户留存率”“搜索流量占比”“社交媒体声量”在内的28个核心预测特征,为模型输入奠定了高质量基础。

content related visual

2. 基于XGBoost的衰减预测建模与验证

针对流量数据的非线性、高噪声特性,选用XGBoost作为核心预测模型。将数据集按时间划分为训练集(前30天)、验证集(中间10天)与测试集(最后10天),通过网格搜索(Grid Search)优化超参数,最终确定学习率为0.05、最大深度为6、子样本比例为0.8的模型配置。模型以“日均独立访客数(UV)衰减率”为预测目标,在验证集上实现MAE(平均绝对误差)3.2%、RMSE(均方根误差)4.1%的精度。进一步通过SHAP值分析发现,“付费渠道流量占比”对衰减的贡献度高达32%,其次是“用户复购周期”(贡献度21%),这一结论为后续运营策略调整提供了直接依据。模型部署后,通过每日增量数据训练实现动态更新,确保预测结果与实时流量趋势保持同步。

3. 预测结果驱动运营策略闭环优化

预测模型的最终价值在于指导决策。当模型提前3天预测到UV衰减率将突破15%的阈值时,运营团队迅速启动响应机制:首先,根据SHAP归因结果暂停低效广告渠道(如某信息流广告ROI<0.8),将预算转移至“老用户召回”短信推送,目标客群为模型识别的高流失风险用户;其次,针对“搜索流量下滑”问题,优化关键词出价策略并上线“满减优惠券”相关搜索词;同步监测社交媒体声量,及时处理负面舆情。策略实施后,实际衰减率被控制在8.7%,较预测值改善42%。此举不仅减少了约120万元的潜在营收损失,更验证了“数据联动-预测建模-策略执行-效果反馈”闭环的可行性,为后续常态化流量风险管理树立了标杆。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

九、自动化监控工具的配置与预警机制

content related visual

1. 核心监控指标的选取与配置

自动化监控工具的配置首先依赖于对核心指标的精准定义。关键性能指标(KPI)需覆盖系统可用性、响应时间、错误率及资源利用率等维度。例如,通过Prometheus配置node_exporter采集CPU、内存及磁盘IO数据,结合业务指标如订单量、用户活跃度等形成多维度监控矩阵。配置时需注意采样频率与数据存储策略,高频指标(如QPS)可每5秒采集一次,而资源类指标可适当延长至1分钟,以平衡精度与存储成本。此外,需建立动态阈值规则,例如基于历史数据使用移动平均算法设定弹性阈值,避免静态阈值在业务高峰期误报。

2. 预警规则的分级与触发逻辑

预警机制需按严重程度分级(如P0-P3),并匹配不同的响应策略。P0级事件(如服务宕机)应立即触发多渠道告警(短信+电话),并自动调用故障处理脚本;P1级(如响应延迟超阈值)可仅发送邮件并记录工单。规则设计需结合“抑制与依赖”逻辑,例如当集群某节点离线时,不重复触发其上所有服务的告警,避免告警风暴。同时,引入因果分析功能,如通过关联日志系统(ELK)与链路追踪(Jaeger),快速定位异常根因。

content related visual

3. 自动化恢复与闭环优化

高级预警机制需与自动化恢复联动。例如,当检测到Pod资源耗尽时,Kubernetes可自动扩容;数据库连接池满时触发限流或重启服务。所有告警事件需记录至知识库,并通过机器学习模型(如LSTM)预测未来风险点,持续优化阈值与规则。最终形成“监测-预警-响应-复盘”的闭环,确保系统稳定性持续提升。

Helium 10 与 Google Search Console 深度联动:如何预判亚马逊站外流量的衰减点?

十、跨平台数据整合的常见问题与解决方案

1. 数据格式与语义差异

跨平台数据整合的首要挑战源于数据格式与语义的不统一。不同系统可能采用JSON、XML、CSV等异构格式存储数据,例如电商平台将订单信息保存为JSON,而物流系统使用XML,直接合并会导致解析失败。此外,语义差异更为隐蔽:同一字段在不同场景下含义可能不同,如“用户ID”在A系统中指代手机号,在B系统中却为邮箱地址,若未标准化会引发数据错位。

解决方案
1. 格式转换中间件:部署ETL工具(如Apache NiFi)实现格式自动转换,通过配置规则将XML解析为JSON或反之。
2. 语义映射表:建立字段级别的元数据字典,定义标准术语与别名映射关系,例如明确“ID”统一为“global_user_id”并关联唯一标识符。
3. 数据契约:跨团队约定统一的数据模型(如Schema Registry),确保新增接口符合既定语义规范。

content related visual

2. 数据质量一致性问题

数据整合后常出现质量下降,表现为重复值、缺失值或逻辑冲突。例如,用户从CRM系统同步的生日字段与APP注册信息不一致,或订单金额因未统一汇率而出现数值偏差。这些问题直接影响决策准确性,尤其在金融、医疗领域可能引发合规风险。

解决方案
1. 清洗规则引擎:设定校验阈值(如手机号长度、价格非负)自动过滤异常数据;使用模糊匹配算法(如Levenshtein距离)识别重复记录。
2. 主数据管理(MDM):构建权威数据源,如以用户中心系统为基准,通过唯一键覆盖其他平台的冗余数据。
3. 实时监控告警:集成数据质量工具(如Great Expectations),对整合后的数据集进行动态校验,触发阈值时自动通知责任人。

3. 实时性与延迟瓶颈

业务场景对数据时效性要求日益严苛,但跨平台整合常因网络传输、批处理窗口导致延迟。例如,营销活动需实时同步用户行为数据,但传统T+1批处理无法支持即时个性化推荐。此外,高并发场景下API限流或数据库锁表可能加剧延迟。

解决方案
1. 流处理架构:采用Kafka+Flink实现实时数据管道,将变更事件推送到下游系统,延迟控制在秒级。
2. 增量同步优化:基于时间戳或日志捕获(CDC)仅传输增量数据,减少全量扫描开销;对大表采用分区并行加载。
3. 缓存加速:在应用层引入Redis等缓存中间件,高频访问数据优先从缓存读取,降低跨平台调用频次。

通过针对性解决格式、质量与实时性问题,跨平台数据整合可从被动兼容转向主动赋能,为数据分析与业务协同奠定坚实基础。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: