简单的程式,海量的数据,速度有关问题求解

简单的程式,海量的数据,速度问题求解!
系统要求扫描产品的条码,保存进数据库,条码不能重复。
系统很简单,但每天的数据量非常大,基本要7万条/天,所以当数据总量达到200万的时候,系统插入记录时就会非常慢,我目前的检查重复是通过设置条码栏位为唯一索引,在程式中捕捉sql返回的错误来判断,这样比传统的用语句判断是否唯一已经快很多,但在数据量大时还是十分缓慢。数据库采用的sql2000.现在没办法只能定期转移数据,实在是非常麻烦。
请教是否有更好的方法处理,谢谢!!!


------解决方案--------------------
探讨
有偿专业支持,保证效率

------解决方案--------------------
我提供一个思路:
1.建立一个日期字段(精确到秒),并在此字段建立聚集索引;
2.不要把主键建立在条码上,建立int类型的主键字段;
3.修改条码的组合方式,加入日期组合,这样在查询重复时先分离出日期,利用聚集索引缩小搜索范围,减少查询时间;
4.楼上有人说利用分区表的方式,但是sql2000的分区表是利用分区视图实现的,效果不理想,在7万条/天的数据量上维护索引的开销是很大的。建立以天为单位的缓冲表比较实在;

------解决方案--------------------
1.一秒之内都应该可以接受 
2.并发输入在30台电脑左右 
3.数据库服务器的配置志强2.8双核CPU两个,内存2G 
4. 条码不能重复是指表中任意时期记录的条码都不能重复 
5. 应用系统是局域网
可以开sql跟踪,看慢在哪里啊,cpu,IO,哪里慢解决哪里问题
数据库服务器CPU足够了, 条件允许的话再加2G内存, 硬盘加满;
如果有6个硬盘1,2硬盘RAID1(操作系统,数据库软件); 3,4,5,6硬盘RAID10; 数据库文件放在RAID10盘上
如果有8个硬盘1,2硬盘RAID1(操作系统,数据库软件); 3,4硬盘RAID10(数据库使用文件组,放索引文件);
5,6,7,8硬盘RAID10放数据文件
操作系统和数据库可以升级到X64版本,数据用sql server 2005或2008版本
定期做碎片整理及重建索引工作;
数据记录的表用条码字段做主键,聚集索引,如果要写入快表的索引尽量少.
是否对表分区看具体应用了,条码字段是全局索引,如果只考虑对条码字段唯一性,分区没什么意义.
写表使用存储过程.
你的这种要求insert的sql也能满足,使用绑定变量方法,减少sql的解析时间.