网上有人给出了最佳的优化思路是:
1.先将大表中满足条件的记录抽出来生成一张临时表.
2.再将这较小的临时表与另一张较小的表进行关联查询.
先不论思路是否值得商榷,这把临时表当成中转站的做法还是很值得肯定
临时表本质上就是一种cache的表现形式,Oracle的临时表都是事先建好的
一旦用了临时表,存放的就是和本会话相关的数据
没有人会傻乎乎地用临时表来保存本应该共享的数据
with子查询实际上也是用了临时表,Oracle会替你创建一张临时表
因此临时表的开销WITH子查询也会有。只要把AUTOTRACE打开你就会看到REDO的开销
关于临时表的使用至少会带来两个问题:
1)主查询的执行计划问题
2)额外的写redo的问题
如果,
临时表作为复杂查询条件的中间结果用于主查询,因为临时表里往往只是个别字段的少量数据,1)的问题比较突出;
如果,
临时表作为最终展现前的结果归集,可能临时表会有比较多字段的较多数据,2)的问题比较突出
㈠ 主查询的执行计划问题
9i临时表由于动态采样level 1,还得用hint,10g比较好用
比较复杂的存储过程(比如数据抽取)可能用到临时表,比实体表优势就是redo少,自动清除
对于临时表的缺陷--采样问题,执行计划的问题其实主要是临时表的cardinality的问题
对于临时表方案,建议动态采样。9IR2以后的版本使用DYNAMIC_SAMPLING 参数或hint能基本避免
如写上 HINT强制它采样 /*+dynamic_sampling(t 0) */
cardinality hint分段提示是个比较好的最佳实践
例如:
临时表里的数据量有大起大落的情形,Oracle只会在硬解析的时候做一次取样
当临时表数据量变化之后,原来的执行计划可能已经不是最优的
碰到这种问题建议使用动态SQL
临时表的数据量在插入结束之后可以通过SQL%ROWCOUNT得知
然后在动态SQL里面拼入cardinality提示,这个提示没有必要精确,要不然你就会有无数的硬解析了
建议给它设置的坎是5000, 即1-5000当作5000处理,5001-10000当作10000,
如此类推,CARDINALITY = CEIL(SQL%ROWCOUNT/5000)*5000,
你也可以通过测试调整出一个合理的值
㈡ 临时表的redo生成
临时表不会为它们的块生成redo。因此,对临时表的操作不是“可恢复的”。
修改临时表中的一个块时,不会将这个修改记录到重做日志文件中
不过,临时表确实会生成undo,而且这个undo 会计入日志。因此,临时表也会生成一些redo。
为什么需要生成undo?这是因为你能回滚到事务中的一个SAVEPOINT
临时表可以有约束,正常表有的一切临时表都可以有
可能有一条INSERT 语句要向临时表中插入500 行,但插入到第500 行时失败了,
这就要求回滚这条语句