sqlserver2000出现的超级问题,保证你们没有遇到过,解决就给分,帮顶都给分!

时间:2022-04-14 19:15:43
有一个sqlserver2000的数据库,primary组为一个数据文件,大小为12480MB(12.48G),磁盘为NTFS分区,磁盘剩余空间为30G,数据库自增长为10%,数据库大小没有限制。同时插入几百万条记录时,报错为:primary组以满,不能插入数据。

23 个解决方案

#1


要收缩数据库.

      在企业管理器中操作简单.

#2


已经做过了,没用,你不会叫我删一些数据吧。^-^

#3


Up.




















#4


我觉得是几百万条记录大于数据库文件的10%报错

一次几百万条,但数据库在这次操作只能增长10%

#5


up

#6


在enterprisemanager里面在properties中对memory和databasesettings设置有没有效果呢

#7


--有可能是你的数据文件超过了NTFS分区的最大的文件的上限.或者是你的分区没有剩余空间了.所以解决这个问题的方法是:

在别的分区新建一个数据文件.放在primary文件组里边.再插入数据,这样数据就会并行的,按比例填充的方式插入到两个文件中,也就是两个磁盘中.这样就不会用完你的磁盘的所有空间了.如果可能的话,你完全可以多建几个辅助的数据文件.

#8


primary组为一个数据文件,大小为12480MB(12.48G),磁盘为NTFS分区,磁盘剩余空间为30G,数据库自增长为10%,数据库大小没有限制。

这个确实比较奇怪,关注一下

可以考虑添加一个数据文件的方法

#9


学习中

#10


--为了不让数据库的日志在插入的过程中过分的膨胀,你还应该在倒入数据的时候设置数据库的还原模型为简单还原模型或者大容量日志纪录还原模型,这样可以防止数据库事务日志的过分增长.

#11



建议还是分成几次处理,就算也ORACLE中也不行的!

#12


几百万?!没有见过啊!大哥你什么部门啊?

#13


对数据库进行收缩数据库.

#14


up

#15


up

#16


up

#17


对,分多次进行吧,应该可以的

up

#18


关注!学习!

顶!
顶!
顶!

#19


study! :)
顶!

#20


up

#21


没见过.

#22


我觉得可以这样尝试。
1、将数据库人为地扩大到一个你确认可以同时插入几百万的大小,插入数据看看。
2、手工计算一下这样插入几百条记录可能有多大,分批地插入,不然的话,如果一个事务插入的话会导致事务日志增长很快,占用大量的磁盘空间。

个人认为是由于增长10%满足不了几百万记录同时插入的存储需求。

#23


问题已解决,便用了最笨的方法,将数据文件移出后重做sqlserer
ntfs格式最大量为2000G
我们数据是大型商业系统网上查询,每天进出都在几百W以上,谢谢你们的关注,我们共同学习!

#1


要收缩数据库.

      在企业管理器中操作简单.

#2


已经做过了,没用,你不会叫我删一些数据吧。^-^

#3


Up.




















#4


我觉得是几百万条记录大于数据库文件的10%报错

一次几百万条,但数据库在这次操作只能增长10%

#5


up

#6


在enterprisemanager里面在properties中对memory和databasesettings设置有没有效果呢

#7


--有可能是你的数据文件超过了NTFS分区的最大的文件的上限.或者是你的分区没有剩余空间了.所以解决这个问题的方法是:

在别的分区新建一个数据文件.放在primary文件组里边.再插入数据,这样数据就会并行的,按比例填充的方式插入到两个文件中,也就是两个磁盘中.这样就不会用完你的磁盘的所有空间了.如果可能的话,你完全可以多建几个辅助的数据文件.

#8


primary组为一个数据文件,大小为12480MB(12.48G),磁盘为NTFS分区,磁盘剩余空间为30G,数据库自增长为10%,数据库大小没有限制。

这个确实比较奇怪,关注一下

可以考虑添加一个数据文件的方法

#9


学习中

#10


--为了不让数据库的日志在插入的过程中过分的膨胀,你还应该在倒入数据的时候设置数据库的还原模型为简单还原模型或者大容量日志纪录还原模型,这样可以防止数据库事务日志的过分增长.

#11



建议还是分成几次处理,就算也ORACLE中也不行的!

#12


几百万?!没有见过啊!大哥你什么部门啊?

#13


对数据库进行收缩数据库.

#14


up

#15


up

#16


up

#17


对,分多次进行吧,应该可以的

up

#18


关注!学习!

顶!
顶!
顶!

#19


study! :)
顶!

#20


up

#21


没见过.

#22


我觉得可以这样尝试。
1、将数据库人为地扩大到一个你确认可以同时插入几百万的大小,插入数据看看。
2、手工计算一下这样插入几百条记录可能有多大,分批地插入,不然的话,如果一个事务插入的话会导致事务日志增长很快,占用大量的磁盘空间。

个人认为是由于增长10%满足不了几百万记录同时插入的存储需求。

#23


问题已解决,便用了最笨的方法,将数据文件移出后重做sqlserer
ntfs格式最大量为2000G
我们数据是大型商业系统网上查询,每天进出都在几百W以上,谢谢你们的关注,我们共同学习!