发个120万mysql数据分表截图。。
才入库40万就1.7G了,120万得5G多,不能放一个表里不然虚拟主机顶不住主表ID+title,120万数据大概150M,副表ID+内容,每个表400多M
分表处理后内容页执行不超过0.05秒
分表之后,程序代码也要跟着改吗?
直接sqlite多库就解决了,好移动,好复制,好备份
leevans 发表于 2013-12-25 00:11 static/image/common/back.gif
分表之后,程序代码也要跟着改吗?
加个判断就可以了,例如一个表10万数据,当ID=200001就让他去查询data3这个表
月光飞燕 发表于 2013-12-25 00:18 static/image/common/back.gif
直接sqlite多库就解决了,好移动,好复制,好备份
程序菜鸟一枚,只会用phpcms框架{:14_1223:}
虚拟主机还跑这数据量。。。
这样的结构,用分区就行了,不然搜索的时候就要多表了。。。
21andy 发表于 2013-12-25 00:27 static/image/common/back.gif
虚拟主机还跑这数据量。。。
这样的结构,用分区就行了,不然搜索的时候就要多表了。。。
...
主表没有分,主要针对GG流量也没打算做全文搜索
到时候如果实在需要再去研究下sphinx,反正phpcms自带了这功能。
哪里的主机能顶住120w数据》
VPS吧 用主机会死慢死慢的
这个站是用来做AMAZON AFF的吗?
大牛啊 程序高手就是爽:lol
你可真能折腾虚拟主机啊!
这个是个技术贴,看不懂
月光飞燕 发表于 2013-12-25 00:18 static/image/common/back.gif
直接sqlite多库就解决了,好移动,好复制,好备份
请问 象楼主这样一百多万数据的也能用sqlite+PHP吗? 看起来好象比mysql方便啊.
楼主收入如何? {:13_1207:}
很不错,效率第一。
页:
[1]