AMZ123跨境卖家导航
拖动LOGO到书签栏,立即收藏AMZ123
首页跨境问答正文

Facebook搜索界面如何调整

2025-04-02 20:0530


本文目录

  1. 如何使用facebook的messenger
  2. 淘宝为什么使用HBase及如何优化的
  3. Facebook新版界面如何修改公共主页名称和帐号链接

如何使用facebook的messenger

Facebook Messenger功能教程

Facebook Messenger,简称Messenger,是Facebook推出的一个即时通讯软件,允许用户进行文字、语音、视频通话等多种形式的交流。以下是Messenger的主要功能及其使用教程:

1.下载与安装:

在应用商店或Facebook官方网站上找到Messenger应用,下载并安装到你的设备(手机或电脑)上。

2.账户设置与登录:

打开Messenger应用,使用你的Facebook账户信息登录。如果是首次使用,可能需要一些基本设置,如选择语言、确认通知设置等。

3.添加联系人:

Messenger会自动同步你的Facebook好友列表。此外,你还可以通过手机号或邮箱添加联系人。

4.发送消息:

在联系人列表中选择一个好友,进入聊天窗口,输入文字、表情符号、贴纸等,点击“发送”按钮即可。

5.语音通话与视频通话:

在聊天窗口中,点击语音通话或视频通话的图标(通常是一个电话或摄像机的形状),等待对方接听即可。需要注意的是,这些功能需要设备和网络的支持。

6.文件分享与位置共享:

在聊天窗口中,你可以点击“+”按钮,选择分享照片、视频、文件或位置。这对于协作或计划见面非常有用。

7.群组聊天与多人通话:

你可以创建一个群组,将多个联系人添加到群组中,实现多人同时聊天或通话。这对于家庭聚会、朋友聚会或工作项目非常实用。

8.隐私与安全设置:

Messenger提供了一系列隐私和安全设置,允许你控制谁可以看到你的在线状态、谁可以向你发送消息等。你可以在应用的设置菜单中找到这些选项并进行配置。

9.使用Messenger进行商业沟通:

对于企业用户,Messenger还提供了与客户沟通的功能,如创建自动回复、设置快捷回复等。这有助于提高客户服务效率和质量。

10.其他特色功能:

Messenger还支持一些特色功能,如贴纸商店(可以下载和分享有趣的贴纸)、游戏中心(可以和好友一起玩游戏)、支付功能(在一些地区,用户可以通过Messenger进行转账和支付)等。你可以在应用的主界面或侧边栏中找到这些功能并尝试使用。

总的来说,Facebook Messenger是一个功能丰富的即时通讯工具,无论是个人还是企业用户都能从中找到适合自己的功能和使用场景。通过熟悉上述教程和不断实践,你将能够充分利用这个平台与朋友、家人和同事保持联系并分享生活中的点滴瞬间。

淘宝为什么使用HBase及如何优化的

1前言

hbase是从hadoop中分离出来的apache顶级开源项目。由于它很好地用java实现了google的bigtable系统大部分特性,因此在数据量猛增的今天非常受到欢迎。对于淘宝而言,随着市场规模的扩大,产品与技术的发展,业务数据量越来越大,对海量数据的高效插入和读取变得越来越重要。由于淘宝拥有也许是国内最大的单一hadoop集群(云梯),因此对hadoop系列的产品有比较深入的了解,也就自然希望使用hbase来做这样一种海量数据读写服务。本篇文章将对淘宝最近一年来在online应用上使用和优化hbase的情况做一次小结。

2原因

为什么要使用hbase?

淘宝在2011年之前所有的后端持久化存储基本上都是在mysql上进行的(不排除少量oracle/bdb/tair/mongdb等),mysql由于开源,并且生态系统良好,本身拥有分库分表等多种解决方案,因此很长一段时间内都满足淘宝大量业务的需求。

但是由于业务的多样化发展,有越来越多的业务系统的需求开始发生了变化。一般来说有以下几类变化:

a)数据量变得越来越多,事实上现在淘宝几乎任何一个与用户相关的在线业务的数据量都在亿级别,每日系统调用次数从亿到百亿都有,且历史数据不能轻易删除。这需要有一个海量分布式文件系统,能对TB级甚至PB级别的数据提供在线服务

b)数据量的增长很快且不一定能准确预计,大多数应用系统从上线起在一段时间内数据量都呈很快的上升趋势,因此从成本的角度考虑对系统水平扩展能力有比较强烈的需求,且不希望存在单点制约

c)只需要简单的kv读取,没有复杂的join等需求。但对系统的并发能力以及吞吐量、响应延时有非常高的需求,并且希望系统能够保持强一致性

d)通常系统的写入非常频繁,尤其是大量系统依赖于实时的日志分析

e)希望能够快速读取批量数据

f) schema灵活多变,可能经常更新列属性或新增列

g)希望能够方便使用,有良好且语义清晰的java接口

以上需求综合在一起,我们认为hbase是一种比较适合的选择。首先它的数据由hdfs天然地做了数据冗余,云梯三年的稳定运行,数据100%可靠己经证明了hdfs集群的安全性,以及服务于海量数据的能力。其次hbase本身的数据读写服务没有单点的限制,服务能力可以随服务器的增长而线性增长,达到几十上百台的规模。LSM-Tree模式的设计让hbase的写入性能非常良好,单次写入通常在1-3ms内即可响应完成,且性能不随数据量的增长而下降。

region(相当于数据库的分表)可以ms级动态的切分和移动,保证了负载均衡性。由于hbase上的数据模型是按rowkey排序存储的,而读取时会一次读取连续的整块数据做为cache,因此良好的rowkey设计可以让批量读取变得十分容易,甚至只需要1次io就能获取几十上百条用户想要的数据。最后,淘宝大部分工程师是java背景的同学,因此hbase的api对于他们来说非常容易上手,培训成本相对较低。

当然也必须指出,在大数据量的背景下银弹是不存在的,hbase本身也有不适合的场景。比如,索引只支持主索引(或看成主组合索引),又比如服务是单点的,单台机器宕机后在master恢复它期间它所负责的部分数据将无法服务等。这就要求在选型上需要对自己的应用系统有足够了解。

3应用情况

我们从2011年3月开始研究hbase如何用于在线服务。尽管之前在一淘搜索中己经有了几十节点的离线服务。这是因为hbase早期版本的目标就是一个海量数据中的离线服务。2009年9月发布的0.20.0版本是一个里程碑,online应用正式成为了hbase的目标,为此hbase引入了 zookeeper来做为backupmaster以及regionserver的管理。2011年1月0.90.0版本是另一个里程碑,基本上我们今天看到的各大网站,如facebook/ebay/yahoo内所使用于生产的hbase都是基于这一个版本(fb所采用的0.89版本结构与0.90.x相近)。bloomfilter等诸多属性加入了进来,性能也有极大提升。基于此,淘宝也选用了0.90.x分支作为线上版本的基础。

第一个上线的应用是数据魔方中的prom。prom原先是基于redis构建的,因为数据量持续增大以及需求的变化,因此我们用hbase重构了它的存储层。准确的说prom更适合0.92版本的hbase,因为它不仅需要高速的在线读写,更需要count/group by等复杂应用。但由于当时0.92版本尚未成熟,因此我们自己单独实现了coprocessor。prom的数据导入是来源于云梯,因此我们每天晚上花半个小时将数据从云梯上写入hbase所在的hdfs,然后在web层做了一个client转发。经过一个月的数据比对,确认了速度比之redis并未有明显下降,以及数据的准确性,因此得以顺利上线。

第二个上线的应用是TimeTunnel,TimeTunnel是一个高效的、可靠的、可扩展的实时数据传输平台,广泛应用于实时日志收集、数据实时监控、广告效果实时反馈、数据库实时同步等领域。它与prom相比的特点是增加了在线写。动态的数据增加使hbase上compact/balance/split/recovery等诸多特性受到了极大的挑战。TT的写入量大约一天20TB,读的量约为此的1.5倍,我们为此准备了20台 regionserver的集群,当然底层的hdfs是公用的,数量更为庞大(下文会提到)。每天TT会为不同的业务在hbase上建不同的表,然后往该表上写入数据,即使我们将region的大小上限设为1GB,最大的几个业务也会达到数千个region这样的规模,可以说每一分钟都会有数次 split。在TT的上线过程中,我们修复了hbase很多关于split方面的bug,有好几个commit到了hbase社区,同时也将社区一些最新的patch打在了我们的版本上。split相关的bug应该说是hbase中会导致数据丢失最大的风险之一,这一点对于每个想使用hbase的开发者来说必须牢记。hbase由于采用了LSM-Tree模型,从架构原理上来说数据几乎没有丢失的可能,但是在实际使用中不小心谨慎就有丢失风险。原因后面会单独强调。TT在预发过程中我们分别因为Meta表损坏以及split方面的bug曾经丢失过数据,因此也单独写了meta表恢复工具,确保今后不发生类似问题(hbase-0.90.5以后的版本都增加了类似工具)。另外,由于我们存放TT的机房并不稳定,发生过很多次宕机事故,甚至发生过假死现象。因此我们也着手修改了一些patch,以提高宕机恢复时间,以及增强了监控的强度。

CTU以及会员中心项目是两个对在线要求比较高的项目,在这两个项目中我们特别对hbase的慢响应问题进行了研究。hbase的慢响应现在一般归纳为四类原因:网络原因、gc问题、命中率以及client的反序列化问题。我们现在对它们做了一些解决方案(后面会有介绍),以更好地对慢响应有控制力。

和Facebook类似,我们也使用了hbase做为实时计算类项目的存储层。目前对内部己经上线了部分实时项目,比如实时页面点击系统,galaxy实时交易推荐以及直播间等内部项目,用户则是散布到公司内各部门的运营小二们。与facebook的puma不同的是淘宝使用了多种方式做实时计算层,比如galaxy是使用类似affa的actor模式处理交易数据,同时关联商品表等维度表计算排行(TopN),而实时页面点击系统则是基于twitter开源的storm进行开发,后台通过TT获取实时的日志数据,计算流将中间结果以及动态维表持久化到hbase上,比如我们将 rowkey设计为url+userid,并读出实时的数据,从而实现实时计算各个维度上的uv。

最后要特别提一下历史交易订单项目。这个项目实际上也是一个重构项目,目的是从以前的solr+bdb的方案上迁移到hbase上来。由于它关系到己买到页面,用户使用频率非常高,重要程度接近核心应用,对数据丢失以及服务中断是零容忍。它对compact做了优化,避免大数据量的compact在服务时间内发生。新增了定制的filter来实现分页查询,rowkey上对应用进行了巧妙的设计以避免了冗余数据的传输以及90%以上的读转化成了顺序读。目前该集群存储了超过百亿的订单数据以及数千亿的索引数据,线上故障率为0。

随着业务的发展,目前我们定制的hbase集群己经应用到了线上超过二十个应用,数百台服务器上。包括淘宝首页的商品实时推荐、广泛用于卖家的实时量子统计等应用,并且还有继续增多以及向核心应用靠近的趋势。

4部署、运维和监控

Facebook之前曾经透露过Facebook的hbase架构,可以说是非常不错的。如他们将message服务的hbase集群按用户分为数个集群,每个集群100台服务器,拥有一台namenode以及分为5个机架,每个机架上一台zookeeper。可以说对于大数据量的服务这是一种优良的架构。对于淘宝来说,由于数据量远没有那么大,应用也没有那么核心,因此我们采用公用hdfs以及zookeeper集群的架构。每个hdfs集群尽量不超过100台规模(这是为了尽量限制namenode单点问题)。在其上架设数个hbase集群,每个集群一个master以及一个 backupmaster。公用hdfs的好处是可以尽量减少compact的影响,以及均摊掉硬盘的成本,因为总有集群对磁盘空间要求高,也总有集群对磁盘空间要求低,混合在一起用从成本上是比较合算的。zookeeper集群公用,每个hbase集群在zk上分属不同的根节点。通过zk的权限机制来保证hbase集群的相互独立。zk的公用原因则仅仅是为了运维方便。

由于是在线应用,运维和监控就变得更加重要,由于之前的经验接近0,因此很难招到专门的hbase运维人员。我们的开发团队和运维团队从一开始就很重视该问题,很早就开始自行培养。以下讲一些我们的运维和监控经验。

我们定制的hbase很重要的一部分功能就是增加监控。hbase本身可以发送ganglia监控数据,只是监控项远远不够,并且ganglia的展示方式并不直观和突出。因此一方面我们在代码中侵入式地增加了很多监控点,比如compact/split/balance/flush队列以及各个阶段的耗时、读写各个阶段的响应时间、读写次数、region的open/close,以及具体到表和region级别的读写次数等等。仍然将它们通过 socket的方式发送到ganglia中,ganglia会把它们记录到rrd文件中,rrd文件的特点是历史数据的精度会越来越低,因此我们自己编写程序从rrd中读出相应的数据并持久化到其它地方,然后自己用js实现了一套监控界面,将我们关心的数据以趋势图、饼图等各种方式重点汇总和显示出来,并且可以无精度损失地查看任意历史数据。在显示的同时会把部分非常重要的数据,如读写次数、响应时间等写入数据库,实现波动报警等自定义的报警。经过以上措施,保证了我们总是能先于用户发现集群的问题并及时修复。我们利用redis高效的排序算法实时地将每个region的读写次数进行排序,能够在高负载的情况下找到具体请求次数排名较高的那些region,并把它们移到空闲的regionserver上去。在高峰期我们能对上百台机器的数十万个 region进行实时排序。

为了隔离应用的影响,我们在代码层面实现了可以检查不同client过来的连接,并且切断某些client的连接,以在发生故障时,将故障隔离在某个应用内部而不扩大化。mapreduce的应用也会控制在低峰期运行,比如在白天我们会关闭jobtracker等。

此外,为了保障服务从结果上的可用,我们也会定期跑读写测试、建表测试、hbck等命令。hbck是一个非常有用的工具,不过要注意它也是一个很重的工操作,因此尽量减少hbck的调用次数,尽量不要并行运行hbck服务。在0.90.4以前的hbck会有一些机率使hbase宕机。另外为了确保 hdfs的安全性,需要定期运行fsck等以检查hdfs的状态,如block的replica数量等。

我们会每天根踪所有线上服务器的日志,将错误日志全部找出来并且邮件给开发人员,以查明每一次error以上的问题原因和fix。直至错误降低为0。另外每一次的hbck结果如果有问题也会邮件给开发人员以处理掉。尽管并不是每一次error都会引发问题,甚至大部分error都只是分布式系统中的正常现象,但明白它们问题的原因是非常重要的。

5测试与发布

因为是未知的系统,我们从一开始就非常注重测试。测试从一开始就分为性能测试和功能测试。性能测试主要是注意基准测试,分很多场景,比如不同混合读写比例,不同k/v大小,不同列族数,不同命中率,是否做presharding等等。每次运行都会持续数小时以得到准确的结果。因此我们写了一套自动化系统,从web上选择不同的场景,后台会自动将测试参数传到各台服务器上去执行。由于是测试分布式系统,因此client也必须是分布式的。

我们判断测试是否准确的依据是同一个场景跑多次,是否数据,以及运行曲线达到99%以上的重合度,这个工作非常烦琐,以至于消耗了很多时间,但后来的事实证明它非常有意义。因为我们对它建立了100%的信任,这非常重要,比如后期我们的改进哪怕只提高2%的性能也能被准确捕捉到,又比如某次代码修改使compact队列曲线有了一些起伏而被我们看到,从而找出了程序的bug,等等。

功能测试上则主要是接口测试和异常测试。接口测试一般作用不是很明显,因为hbase本身的单元测试己经使这部分被覆盖到了。但异常测试非常重要,我们绝大部分bug修改都是在异常测试中发现的,这帮助我们去掉了很多生产环境中可能存在的不稳定因素,我们也提交了十几个相应的patch到社区,并受到了重视和commit。分布式系统设计的难点和复杂度都在异常处理上,我们必须认为系统在通讯的任何时候都是不可靠的。某些难以复现的问题我们会通过查看代码大体定位到问题以后,在代码层面强行抛出异常来复现它。事实证明这非常有用。

为了方便和快速定位问题,我们设计了一套日志收集和处理的程序,以方便地从每台服务器上抓取相应的日志并按一定规律汇总。这非常重要,避免浪费大量的时间到登录不同的服务器以寻找一个bug的线索。

由于hbase社区在不停发展,以及线上或测试环境发现的新的bug,我们需要制定一套有规律的发布模式。它既要避免频繁的发布引起的不稳定,又要避免长期不发布导致生产版本离开发版本越来越远或是隐藏的bug爆发。我们强行规定每两周从内部trunk上release一个版本,该版本必须通过所有的测试包括回归测试,并且在release后在一个小型的集群上24小时不受甘扰不停地运行。每个月会有一次发布,发布时采用最新release的版本,并且将现有的集群按重要性分级发布,以确保重要应用不受新版本的潜在bug影响。事实证明自从我们引入这套发布机制后,由发布带来的不稳定因素大大下降了,并且线上版本也能保持不落后太多。

6改进和优化

Facebook是一家非常值得尊敬的公司,他们毫无保留地对外公布了对hbase的所有改造,并且将他们内部实际使用的版本开源到了社区。 facebook线上应用的一个重要特点是他们关闭了split,以降低split带来的风险。与facebook不同,淘宝的业务数据量相对没有如此庞大,并且由于应用类型非常丰富,我们并们并没有要求用户强行选择关闭split,而是尽量去修改split中可能存在的bug。到目前为止,虽然我们并不能说完全解决了这个问题,但是从0.90.2中暴露出来的诸多跟split以及宕机相关的可能引发的bug我们的测试环境上己经被修复到接近了0,也为社区提交了10数个稳定性相关的patch,比较重要的有以下几个:

还有其它一些,我们主要将patch提交到0.92版本,社区会有commitor帮助我们backport回0.90版本。所以社区从 0.90.2一直到0.90.6一共发布了5个bugfix版本后,0.90.6版本其实己经比较稳定了。建议生产环境可以考虑这个版本。

split这是一个很重的事务,它有一个严重的问题就是会修改meta表(当然宕机恢复时也有这个问题)。如果在此期间发生异常,很有可能meta表、rs内存、master内存以及hdfs上的文件会发生不一致,导致之后region重新分配时发生错误。其中一个错误就是有可能同一个region被两个以上的regionserver所服务,那么就可能出现这一个region所服务的数据会随机分别写到多台rs上,读取的时候也会分别读取,导致数据丢失。想要恢复原状,必须删除掉其中一个rs上的region,这就导致了不得不主动删掉数据,从而引发数据丢失。

前面说到慢响应的问题归纳为网络原因、gc问题、命中率以及client的反序列化问题。网络原因一般是网络不稳定引起的,不过也有可能是tcp参数设置问题,必须保证尽量减少包的延迟,如nodelay需要设置为true等,这些问题我们通过tcpdump等一系列工具专门定位过,证明tcp参数对包的组装确实会造成慢连接。gc要根据应用的类型来,一般在读比较多的应用中新生代不能设置得太小。命中率极大影响了响应的时间,我们会尽量将 version数设为1以增加缓存的容量,良好的balance也能帮助充分应用好每台机器的命中率。我们为此设计了表级别的balance。

由于hbase服务是单点的,即宕机一台,则该台机器所服务的数据在恢复前是无法读写的。宕机恢复速度决定了我们服务的可用率。为此主要做了几点优化。首先是将zk的宕机发现时间尽量缩短到1分钟,其次改进了master恢复日志为并行恢复,大大提高了master恢复日志的速度,然后我们修改了 openhandler中可能出现的一些超时异常,以及死锁,去掉了日志中可能发生的open…too long等异常。原生的hbase在宕机恢复时有可能发生10几分钟甚至半小时无法重启的问题己经被修复掉了。另外,hdfs层面我们将 socket.timeout时间以及重试时间也缩短了,以降低datanode宕机引起的长时间block现象。

hbase本身读写层面的优化我们目前并没有做太多的工作,唯一打的patch是region增加时写性能严重下降的问题。因为由于hbase本身良好的性能,我们通过大量测试找到了各种应用场景中比较优良的参数并应用于生产环境后,都基本满足需求。不过这是我们接下来的重要工作。

7将来计划

我们目前维护着淘宝内基于社区0.90.x而定制的hbase版本。接下来除继续fix它的bug外,会维护基于0.92.x修改的版本。之所以这样,是因为0.92.x和0.90.x的兼容性并不是非常好,而且0.92.x修改掉的代码非常多,粗略统计会超过30%。0.92中有我们非常看重的一些特性。

0.92版本改进了hfile为hfileV2,v2版本的特点是将索引以及bloomfilter进行了大幅改造,以支持单个大hfile文件。现有的HFile在文件大到一定程度时,index会占用大量的内存,并且加载文件的速度会因此下降非常多。而如果HFile不增大的话,region就无法扩大,从而导致region数量非常多。这是我们想尽量避免的事。

0.92版本改进了通讯层协议,在通讯层中增加了length,这非常重要,它让我们可以写出nio的客户端,使反序列化不再成为影响client性能的地方。

0.92版本增加了coprocessor特性,这支持了少量想要在rs上进行count等的应用。

还有其它很多优化,比如改进了balance算法、改进了compact算法、改进了scan算法、compact变为CF级别、动态做ddl等等特性。

除了0.92版本外,0.94版本以及最新的trunk(0.96)也有很多不错的特性,0.94是一个性能优化版本。它做了很多革命性工作,比如去掉root表,比如HLog进行压缩,replication上支持多个slave集群,等等。

我们自己也有一些优化,比如自行实现的二级索引、backup策略等都会在内部版本上实现。

另外值得一提的是hdfs层面的优化也非常重要,hadoop-1.0.0以及cloudera-3u3的改进对hbase非常有帮助,比如本地化读、checksum的改进、datanode的keepalive设置、namenode的HA策略等。我们有一支优秀的hdfs团队来支持我们的 hdfs层面工作,比如定位以及fix一些hdfs层面的bug,帮助提供一些hdfs上参数的建议,以及帮助实现namenode的HA等。最新的测试表明,3u3的checksum+本地化读可以将随机读性能提升至少一倍。

我们正在做的一件有意义的事是实时监控和调整regionserver的负载,能够动态地将负载不足的集群上的服务器挪到负载较高的集群中,而整个过程对用户完全透明。

总的来说,我们的策略是尽量和社区合作,以推动hbase在整个apache生态链以及业界的发展,使其能更稳定地部署到更多的应用中去,以降低使用门槛以及使用成本。

Facebook新版界面如何修改公共主页名称和帐号链接

要修改Facebook公共主页名称,请参考以下步骤:

首先,登录到您的Facebook账户,切换至公共主页管理员页面,点击“设置”。

接着,找到“分享对象和可见度”部分,点击“公共主页设置”。

在“姓名”选项中,点击“查看”按钮,此为当前名称。

点击“编辑”后,您可以修改名称并预览,注意,姓名更改后60天内无法再次修改,只能更改一次。

完成名称修改后,保存更改并回到主页。

接着,点击您的账号,进入“编辑”页面。

输入新的账号名称,确保至少5个字符,且不全为数字,避免使用已被他人占用的账号。

保存更改,新账号名称即已生效。

通过以上步骤,您可以轻松修改Facebook公共主页的名称和账号链接。希望此教程对您有帮助。如有其他问题,欢迎随时在下方留言交流。

AMZ123跨境卖家导航旗下公众号【AMZ123跨境电商】深耕跨境行业,专注热点报道。
扫描右边二维码,关注后回复【加群】,加入优质卖家交流群~
目前30W+卖家关注我们
二维码
最新热门报告作者标签
Coupang 25财年营收345亿美元,数据泄露事件影响恢复
AMZ123获悉,近日,韩国电商巨头Coupang发布了截至2025年12月31日的2025财年第四季度及全年财报。Coupang表示,尽管受到2025年11月大规模数据泄露事件影响,第四季度出现亏损,营收未达分析师预期,但全年整体增长稳健,实现营收与毛利持续提升,并在核心电商业务及新业务板块均取得进展。以下为Q4财务亮点:①总营收为88亿美元,同比增长11%。②毛利为25亿美元,同比增长2%;毛利率为28.8%,同比下降248个基点。③营业收入为800万美元,同比下降3.04亿美元;剔除非持续运营项目后下降1.71亿美元。④调整后EBITDA为2.67亿美元,利润率为3.0%,同比下降226个基点。
美国电商销售额全球第二!最新全球电商市场报告发布
AMZ123获悉,近日,根据研究机构MobilLoud的预测,2026年全球电商销售额将增长约12%,达到6.88万亿美元。在2025年各国排名中,中国以3.45万亿美元的电商收入位居全球第一。美国以1.38万亿美元排名第二。英国以1950亿美元位列第三,日本为1690亿美元,韩国为1470亿美元,德国为1400亿美元,印度为1360亿美元,印度尼西亚为940亿美元,法国为920亿美元,加拿大为880亿美元。从电商渗透率来看,中国在2025年以47%的比例排名第一,明显高于其他国家。印度尼西亚的电商渗透率为32%,排名第二。英国为31%,韩国为30%。
日本乐天市场推出YouTube购物联盟计划
AMZ123获悉,近日,日本乐天集团Rakuten Group宣布,旗下电商平台乐天市场与谷歌达成合作,为用户提供通过YouTube视频直接购买商品的全新购物体验。这一举措于2026年2月19日启动,标志着乐天市场在日本首次引入YouTube购物联盟计划,实现视频内容与电商平台的无缝衔接。通过此次合作,用户在观看YouTube创作者上传的视频时,可以点击“显示商品”按钮,直接在视频界面查看商品名称、价格等信息,并跳转至乐天市场的商品页面进行详细浏览和购买。该机制不仅提升了购物的便利性,也为用户创造了新的商品发现方式。
单品月销近80万,TikTok带火英国“暖气片经济”
又熬过了一个冬天。或许只有经手过欧洲冬季暖气账单的人,此时明白这句话的含金量。2月末,随着气温转暖,暖气片再次阶段性退出历史舞台。长达大半年的休眠期,让暖气片不美观、占空间等缺点,在空荡荡的墙面中持续被放大,为了使其不那么“丑且显眼”,越来越多人选择对暖气片进行改造,由此催生出一系列围绕暖气片功能再造的细分市场,正在为TikTok欧洲区卖家带去全新的市场增量。
7月1日起,欧盟取消小额免税红利!
01引言:政策变局下的跨境电商新挑战 欧盟跨境电商进口监管改革方案已正式生效,自7月1日起废除150欧元以下包裹关税豁免政策,标志着支撑中欧跨境电商多年的小额免税红利彻底终结。官方数据显示,2024年进入欧盟的46亿件小额包裹中,91%来自中国,这一政策调整将对深耕欧洲市场的中国卖家带来直接且深远的经营挑战。关键转折点:政策生效使中国跨境电商失去价格竞争优势,需重新构建合规运营体系以应对欧盟市场新规则。02 政策背景与核心变化解析政策调整的底层逻辑欧盟取消跨境电商小额免税政策的核心动因源于财政与市场公平的双重考量。长期免税导致关税收入流失及不合规商品流入的监管漏洞,同时被认为削弱了本土零售商竞争力。
低价翻车!又一深圳服务商疑似暴雷
新年的钟声余音未了,跨境圈便再起波澜。当许多卖家还沉浸在复工复产的节奏中时,行业上空却接连传来暴雷的消息。近日,深圳某服务商被曝恶意卷款跑路,消息一传给本就不平静的开年蒙上了一层厚重的阴影。AMZ123获悉,近日,社媒平台上频繁传出深圳和墨西哥两地服务商跑路的消息。据了解,涉事公司为深圳某T跨境,主营业务为墨西哥本土店注册、代运营及回款结汇等服务。值得注意的是,这场暴雷早有预兆。2026年初,该服务商曾以"合规"为由,要求卖家上交6%营业款,当时声称是为了应对平台税务审查,实则为后续收割埋下伏笔。
波兰反垄断机构突击搜查Allegro总部,调查反垄断问题
AMZ123获悉,近日,据外媒报道,波兰竞争与消费者保护办公室UOKiK负责人下令,对电商平台Allegro位于波兹南的总部及其华沙办公室进行搜查。此次行动经法院批准,并在警方陪同下进行,目的是在一项关于电商市场可能限制竞争行为的调查中收集证据。监管机构表示,调查处于“针对事项”的解释阶段,目前尚未对任何具体企业提出正式指控。若后续确认存在违反竞争规则的行为,可能启动反垄断程序,并对相关企业处以最高不超过其年度营业额10%的罚款。
美元汇率跌回6.84,卖家直呼亏大了!
春节的烟火气息尚未散尽,跨境电商又一“黑天鹅”悄然落地。在近期卖家忙于复盘假期销售数据、规划新品上架的同时,美元汇率无声地跌破了6.84关口。AMZ123获悉,自节后开工以来,美元汇率连续下跌,2月26日,美元对在岸人民币汇率盘中已跌破6.84关口,对离岸人民币盘中跌破6.83关口,均创下了2023年4月以来的新低。截至2月27日下午15:00,美元对人民币汇率为6.8565。图源:AMZ123汇率换算工具据了解,对于跨境卖家而言,其业务通常采用美元核算、人民币结算的方式,因此汇率波动往往对利润的影响较大。
第二波暴雪袭美,卖家单量对半砍?
对不少亚马逊卖家来说,今年的开局多少有点“水逆”。1月暴雪刚让部分卖家单量明显下滑,春节一过,原本打算重新冲量、加快补货节奏,结果还没来得及发力,新一轮暴雪又迎面而来。AMZ123获悉,据新华社报道,当地时间2月22日起,一场强劲暴风雪席卷美国东北部,强降雪、大风与极寒天气叠加,公共交通和居民出行受到严重影响。从整体影响看,据航班追踪网站FlightAware.com数据显示,截至周一下午,航空公司累计已取消超过7400个航班,另有2300个航班延误,其中包括已提前取消的1800多个周二航班。停电影响同样明显,PowerOutage.us统计显示,截至周一下午,全美共有608,711户家庭和企业断电。
2025年亚马逊美国消费电子销售第一,超越百思买
AMZ123获悉,近日,市场研究机构Numerator发布了最新《消费者电子产品支出报告》显示,2025年美国消费电子市场竞争格局出现变化。亚马逊在部分消费电子品类中占据31%的销售份额,超过百思买的27%。两家公司合计占据超过一半的消费电子销售额。报告指出,亚马逊在每年夏季和秋季的Prime Day促销活动期间,市场份额会出现明显上升,而其他主要竞争平台的份额则在同期有所下降。从整体消费节奏来看,11月和12月是电子产品购买最集中的月份,其次是7月。从品类表现来看,大多数消费电子品类在过去一年中家庭渗透率保持稳定,但购买频率略有下降。
Temu成为2025年全球电商应用下载榜首
AMZ123获悉,近日,Sensor Tower发布了《2026年移动应用市场报告》,对2025年全球移动应用市场进行了系统分析。报告显示,2025年全球移动应用下载量、应用内购买收入和用户使用时长均创下历史新高,人工智能应用成为推动市场增长的重要力量。在电商领域,Temu和Shein成为全球下载量最高的在线购物应用;在人工智能领域,ChatGPT跃升为全球下载量第二高的应用,仅次于TikTok。
欧洲电商前十榜单出炉!亚马逊GMV达2320亿美元
AMZ123获悉,近日,欧洲市场研究机构ECDB发布的《Global E-commerce Compass 2026》显示,欧洲电商市场的前十名企业主要由美国、中国和俄罗斯公司占据。该报告根据2025年在欧洲(包括俄罗斯)实现的商品交易总额(GMV)计算,金额以美元计。数据显示,亚马逊以接近2320亿美元的GMV位居第一。其规模几乎与排名第二至第十位企业的总和相当,后九家企业合计GMV为2440亿美元。除了亚马逊外,前十名中还有两家美国企业,分别是eBay和Apple(以DTC形式入榜)。俄罗斯平台Ozon和Wildberries分列第二和第三位,两者规模大致相当。
TikTok清洁神器赛道又现爆款,跨境卖家已入账近千万
7日卖出上百万,TikTok两年前的“旧刷子”卖疯了
英国驳回亚马逊上诉,两起诉讼总额高达40亿英镑
AMZ123获悉,近日,英国上诉法院驳回了亚马逊提出的上诉申请,意味着针对该公司的两起大规模集体诉讼将继续推进。这两起案件分别由零售商代表和消费者代表发起,索赔总额最高可达40亿英镑(约54.1亿美元)。亚马逊此前试图阻止案件进入下一阶段,但未获法院支持。其中一起诉讼由东英吉利大学竞争法教授Andreas Stephan代表超过20万名第三方零售商提起,索赔金额最高达27亿英镑。诉讼称,亚马逊在英国电商市场提供第三方卖家平台服务方面处于主导地位,并通过多种方式滥用这一地位,损害卖家利益。
从支付之王到待价而沽,PayPal将何去何从?
2026年2月,路透社的一则爆料在金融科技圈掀起了波澜。消息称,支付公司Stripe正在考虑收购PayPal的全部或部分业务。消息传出当天,PayPal股价应声上涨近7%,市值重回400亿美元关口。这7%的涨幅背后,藏着一句没说出口的潜台词:市场认为PayPal独立活下去的难度,比被人买走还要大。这个曾经改写全球支付规则的蓝色按钮,让无数中国外贸卖家第一次收到美元货款的神器——正在经历它最艰难的时刻。五年蒸发近九成:一个帝国的坠落要理解这场潜在收购的戏剧性,得先看看PayPal是怎么从云端跌落的。2021年疫情期间,线上支付需求爆发,PayPal市值一度冲上3630亿美元的巅峰。然后,故事开始急转直下。
2026亚马逊政策实操解读
26年的第一篇文章的灵感来源于《重要!重要!重要!亚马逊近期政策大汇总!
《解码亚太宠物行业增长引擎》PDF下载
亚太区域内,不同区域高端宠物食品的市场规模占比存在差距新加坡和中国香港市场依赖进口品牌推动高端主粮市场快速增长相较于高端市场,中国和泰国目前仍以中端价格产品为主导,消费者表现出较强的性价比意识与务实型购买倾向
《2026全球包装行业的可持续进化之路》PDF下载
根据明特尔公司(Mintel)2020年全球包装趋势报告《塑料:负责任的使用》,人们正呼吁世界朝着无塑料化的方向转变,转而采用负责任的塑料使用方式。因为消费者逐渐认识到,放弃塑料包装在成本、货架寿命和便利性方面会带来不利影响。回收成为了一个颇具希望的解决方案:这描绘了一种循环经济愿景,其中塑料可以被无限次地重复利用而非被浪费。
《2026全球DTC独立站营销洞察报告》PDF下载
2025年,全球电子商务销售额预计达到6.86万亿美元,同比增长8.37%。在全球普遍通胀压力、地缘政治不确定性以及贸易与关税政策频繁调整的背景下,电商仍能维持高于整体零售的增长速度,显示出线上渠道在全球消费体系中的结构性优势。展望2025-2027年,全球电商市场将以7.8%的复合年增长率持续扩张,规模有望在2027年突破8万亿美元,其增速仍是实体零售的两倍以上。
《2026年展望年度前瞻:十大核心主题》PDF下载
2026年,增长主导权将成为焦点,尤其是美国例外论是否会持续。随着通胀基本得到控制,预期利率有望企稳于更为正常、中性的水平。固定收益市场将继续在评估财政可持续性方面发挥关键作用。与此同时,地缘政治演变预计仍将不可预测,导致市场持续波动,并让许多选民对自身选择感到不满。
《2025年全球清洁电器发展报告》PDF下载
2025年中国GDP(名义)19.4万一美元,同比增长4.8%(IMF预测)经济总量排名世界第二 潜力巨大的需求端:14.16亿人口,5.1亿户家庭,吸尘器百户拥有量26% 充满创造力的供给端,全球约50%的清洁电器产能来自于中国,中国企业主导了扫地机器人和洗地机成为领导品类 中国具有全球效率最高的销售渠道,以及中国政府提倡内需的政策也再持续不断利好市场
《中企出海美国季度研究报告》PDF下载
近年来,随着全球化进程的深化与中国经济实力的持续提升,越来越多的中国企业将目光投向海外市场。美国作为全球最大经济体创新高地和消费市场,始终是中企出海战略中的关键目标。从制造业到科技领域,从消费品到金融服务,中国企业的国际化步伐不断加快,既彰显了“中国智造”的全球竞争力,也面临复杂的政策环境、文化差异与市场竞争等挑战。
《跨境蓝海拉美市场洞察 - 墨西哥篇》PDF下载
墨西哥位于北美大陆南部,北邻美国,政局稳定,法律健全,是拉丁美洲地区第一贸易大国和重要的外国直接投资目的地。墨西哥拥有 1.28亿人口,是仅次于巴西的拉美第二大经济体,同时也是拉美第三大线上零售市场,无论是互联网的普及率还是使用率在拉美市场都处于佼佼者。
AMZ123会员
「AMZ123会员」为出海者推出的一站式私享服务
跨境科普达人
科普各种跨境小知识,科普那些你不知道的事...
跨境电商赢商荟
跨境电商行业唯一一家一年365天不断更的媒体!
AMZ123选品观察员
选品推荐及选品技巧分享。
亚马逊全球开店
亚马逊全球开店官方公众号,致力于为中国跨境卖家提供最新,最全亚马逊全球开店资讯,运营干货分享及开店支持。
跨境平台资讯
AMZ123旗下跨境电商平台新闻栏目,专注全球跨境电商平台热点事件,为广大卖家提供跨境电商平台最新动态、最热新闻。
AMZ123跨境电商
专注跨境行业热点事件报道,每日坚持推送原创深度热文
跨境电商干货集结
跨境电商干货集结,是结合亚马逊跨境电商卖家交流群内大家在交流过程中最常遇到的问题,进行收集整理,汇总解答,将会持续更新大家当前最常遇见的问题。欢迎大家加入跨境电商干货集结卖家交流群一起探讨。
咨询
官方微信群
官方客服

扫码添加,立即咨询

加群
官方微信群
官方微信群

扫码添加,拉你进群

更多
订阅号服务号跨境资讯
二维码

为你推送和解读最前沿、最有料的跨境电商资讯

二维码

90% 亚马逊卖家都在关注的微信公众号

二维码

精选今日跨境电商头条资讯

回顶部