分享做AMZ的两种思路,第一个月收入200多刀。。
本帖最后由 微笑2013 于 2013-10-23 18:14 编辑搞AMZ也有那么三四个月了,很庆幸没走什么弯路。我第一个月也就是三个月前只用了一个帐户收了200多刀:http://www.eefaq.com/thread-111118-1-1.html
现在是三个帐户同时操作,一个在自己家注册,一个在朋友家注册,一个旅游的时候在酒店注册。为了避免帐号被K,后两个注册以后从来不登陆的,定期收一下邮件即可。
目前做AMZ思路有两种:
第一种比较流行,像月光、妃子笑那样做精站,以质量取胜。这个不用多说,论坛上各种教程应有尽有。
第二种,以数量取胜,也就是做百万级别的长尾词。
因为我英语非常烂,所以只能选择第二种。
大概操作方法其实也不难,我采集了150多万关键词、与这150多万关键词关联的AMZ产品及新闻、图片、视频。这个是慢工细活,而且要懂点程序和数据库优化,否则的话这么多数据GG蜘蛛一爬起来服务器就卡死,虚拟主机就更别谈了。
数据有了,接下来的工作只需要将数据重组一下。就像做专题,弄几个头条,配点新闻、图片、视频。数据重组得好的话一定程度上算原创,这个不违反SEO原则。
我第一个站K了,主要因为当时没做处理,100个站内容都是一样的。第二个站就学乖了,两个月多一点点的时间,点击和收录图:
这种方法适合英文水平不是很好的同学,但有几个前提:
1.服务器的钱你得掏得起,百万级别的数据,本地化的话少说也得几百G数据了。要么你懂点程序可以直接拉取AMZ的API数据,但我用过API不是一般的慢,本地化以后速度快个2-3倍的样子。
2.几十上百个域名你得买得起,这么多数据你用一个域名?开玩笑,浪费资源。
3.这么多站链接你得买得起,你就算请小弟手工发外链,也得付得起工钱吧。
这样操作会有几个问题:
1.那么多域名,内容重复怎么办。
这个容易,把150万数据分成几十个部份,每个站分配一点,这个是手工活,当然你懂程序的话就容易得多了。
2.这么多站,不会关联吗?
用多IP服务器就行了,尽量不同段,域名所有人信息随机,站与站之间不要互链。总之一个宗旨,每个站都是一个个体,不要有任何关联。
最后总结一下,AMZ其实跟国内的淘宝客做法差不多,有很多可以借鉴的地方,像什么微博推广啊,IM推广啊,邮件推广啊。都是可以的,但是要玩好就不那么容易了。
大数据量的时代,给力
不错啊,做适合自己的,或许会好点。
大手笔投入不菲 关键还得懂程序
楼主这么多站,空间与ip的问题怎么解决的?
webthink 发表于 2013-10-23 19:56 static/image/common/back.gif
楼主这么多站,空间与ip的问题怎么解决的?
1台服务器可以有N个IP的,域名解析到不同IP就行了。
不得不说,楼主是牛人!
本帖最后由 bbhit 于 2013-10-23 21:25 编辑
不错,支持,不过能细说一下
大概操作方法其实也不难,我采集了150多万关键词、与这150多万关键词关联的AMZ产品及新闻、图片、视频。
其实你这种做法,前几年我认识一个人也做这思路了,我觉得非常好
不过当时他不是做amz,他是做CJ,CB的,不过没坚持多久,就不做了
采集了150多万关键词,这个关键词怎么来啊?
然后用这些关键词怎么和amz的产品关联呢?
不知道能不能细说一下
你那个图是什么工具?
还有,你这么多站都提交到google 的sitemap吗?
用一个统计ID?
楼主的帖子不错,受益啦!
bbhit 发表于 2013-10-23 21:23 static/image/common/back.gif
不错,支持,不过能细说一下
其实你这种做法,前几年我认识一个人也做这思路了,我觉得非常好
把amz的产品入库,查询搜索关键词相关的产品还不容易?
图是google sitemap后台,这个图只是一个站的内容,统计ID是不同的,下载的开源统计程序。
bbhit 发表于 2013-10-23 21:23 static/image/common/back.gif
不错,支持,不过能细说一下
其实你这种做法,前几年我认识一个人也做这思路了,我觉得非常好
关键词通过各大电商平台去采集,深入去挖我能挖出上千万,主要火车头跑不动千万级的任务
微笑2013 发表于 2013-10-23 21:34 static/image/common/back.gif
把amz的产品入库,查询搜索关键词相关的产品还不容易?
图是google sitemap后台,这个图只是一个站的内 ...
那amz的产品入库
你是采集api吗?
我采集amz的产品,都是通过网页去采集,所以一个产品的title,都有很多多余的词,所以很乱
不知道api的产品关键词是怎么样 的?
可能我做站的思路定了
你的关键词应该不是产品的型号关键词吧?
是不是分类的相关关键词?
但如果是这样,你配对的产品,那就有很多了?
我思路有点乱,还是没有弄明白你的思路是怎么做的
可以无视我的问题
点击量不错啊。。。。。。。
不错啊,这种方法。牛逼啊~向你学习啊。
bbhit 发表于 2013-10-23 21:54 static/image/common/back.gif
那amz的产品入库
你是采集api吗?
我采集amz的产品,都是通过网页去采集,所以一个产品的title,都有很多 ...
标题乱可以用PHP去过滤,采集的时候不用考虑那么多,先把数据搞下来再说。
采集的词不管是分类还是产品型号还是产品名称,只要是产品相关都是可以的。
配对的产品,有的词结果肯定有很多,取前10就行,没人会翻页去看的而且占资源。
本帖最后由 bbhit 于 2013-10-23 22:21 编辑
微笑2013 发表于 2013-10-23 22:09 static/image/common/back.gif
标题乱可以用PHP去过滤,采集的时候不用考虑那么多,先把数据搞下来再说。
采集的词不管是分类还是产品 ...
其实就是采集amzon的分类产品
然后再采集keyword,再做大概站内全文索引这类是吗?
你指的专题是不是这样
比如现在的一个关键词iPad Air
专题:
iPad Air
前10个与ipad air全文索引相关的amazon产品
然后是iPad Air的新闻
再到iPad Air的图片
还有就是视频
这样就成了一个iPad Air的amazon商品,新闻,图片,视频的一个专题?
这样你的150多万的关键词就有150多万个专题?
如果是我想的这样的思路那这些流量转换率高吗?
楼主技术比较牛思路也不错 佩服
大牛一个,新手估计不是很适合这种方法
楼主充分发挥了自己的优势,并做了灵活变通,不错。
不过采集始终走在政策边缘,风险略大。祝楼主顺利吧!
就像做专题,弄几个头条,配点新闻、图片、视频。请教这个也是程序做的?如何保证新闻、图片与关键词的匹配度?