MYSQL制作千万级测试数据
MYSQL打造千万级测试数据
为了更好的测试MYSQL性能以及程序优化,不得不去制作海量数据来测试。我这里的方法就是直接用uuid函数进行分配每条数据的不同内容。
1.首先创建测试表(card表)
CREATE TABLE `card` ( `card_id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT 'ID', `card_number` varchar(100) DEFAULT NULL COMMENT '卡号', PRIMARY KEY (`card_id`) ) ENGINE=MyISAM AUTO_INCREMENT=0 DEFAULT CHARSET=utf8 CHECKSUM=1 DELAY_KEY_WRITE=1 ROW_FORMAT=DYNAMIC
2.创建MYSQL存储过程
DROP PROCEDURE IF EXISTS proc1; DELIMITER $$ SET AUTOCOMMIT = 0$$ CREATE PROCEDURE proc1() BEGIN DECLARE v_cnt DECIMAL (10) DEFAULT 0 ; dd:LOOP INSERT INTO card (card_number) VALUES (UUID()); COMMIT; SET v_cnt = v_cnt+1 ; IF v_cnt = 10000000 THEN LEAVE dd; END IF; END LOOP dd ; END;$$ DELIMITER ;
3.调用存储过程,生成对应的测试数据
call proc1;
我的机子大概是2分13秒的样子生成完毕,每个人的机子各有不同,生成的时间也会不一样。
4.来测试一下性能吧。
select * from card order by rand() limit 1; //6.5秒查询完毕 select * from card where card_number like '%xxx%'; //3.7秒查询完毕
在这样的海量数据情况下,如果用到模糊查询,那肯定会很慢,一般建议用全文检索引擎来替代(如Sphinx),查询速度就完全解决。
可以参考此文:
使用Sphinx更好地进行MySQL搜索