你的位置:首页 > 数据库

[数据库]探秘重编译(Recompilations)(2/2)


在上一篇文章里,我讨论了使用临时表如何引起SQL Server里的重编译。在文章最后我提到,今天这篇文章我会聚焦表变量(Table Variables)的更多信息,它可以避免重编译的昂贵开销。我们来详细分析下。

表变量(Table Variables)

表变量总局限于提交到SQL Server的批处理语句范围。当你在批处理语句范围外引用表变量时,SQL Server就会返回你一条错误信息。这是和临时表相比第1个重大区别。下列代码向你展示了如何创建和使用表变量——只在简单存储过程的上下文里。

 1 CREATE PROCEDURE DemonstrateTableVariablesNoRecompiles 2 AS 3 BEGIN 4   DECLARE @tempTable TABLE 5   ( 6     ID INT IDENTITY(1, 1) PRIMARY KEY, 7     FirstName CHAR(4000), 8     LastName CHAR(4000) 9   )10   11   INSERT INTO @TempTable (FirstName, LastName)12   SELECT TOP 1000 name, name FROM master.dbo.syscolumns13   14   SELECT * FROM @TempTable15 END16 GO

表变量的好处是它们不会引起任何重编译。当你执行这个存储过程并用SQL Server Profiler跟踪时,不会发现重编译事件。

1 EXEC dbo.DemonstrateTableVariablesNoRecompiles

为什么使用表变量就可以这样呢?首先表变量就是个变量——名副其实。当你定义你的表变量时,意味着你不会改变你的数据库架构。因此基于数据酷架构改变的重编译就可以避免。另外表变量是没有统计信息的。因此没有统计信息需要维护,第2个引起重编译原因也就消失了。

首先,这2样听起来都很棒,但当我们进一步分析时,就会发现它的重大缺点。我们来看看。表变量近乎就是个变量。在临时表里,表变量还是持续的。是的,你没看错:当你使用表变量时,会涉及到临时表里的物理I/O操作。这个可以用动态管理视图sys.dm_db_session_space_usage来验证,它是在会话级别跟踪临时表的使用率。我们来看下面的代码(请【新建查询】执行下列代码):

 1 -- Create a table variable 2 DECLARE @tempTable TABLE 3 ( 4   ID INT IDENTITY(1, 1) PRIMARY KEY, 5   FirstName CHAR(4000), 6   LastName CHAR(4000) 7 ) 8  9 -- Insert 4 records into the table variable10 INSERT INTO @tempTable (FirstName, LastName) VALUES11 (12   'Woody',13   'Tu'14 ),15 (16   'Woody',17   'Tu'18 ),19 (20   'Woody',21   'Tu'22 ),23 (24   'Woody',25   'Tu'26 )27 28 -- Retrieve the data from the table variable.29 -- The execution plan estimates 1 row.30 SELECT * FROM @tempTable31 GO32 33 -- Review the space used in TempDb.34 -- Our table variable currently needs 5 pages in TempDb.35 -- The 5 needed pages from the table variable are already marked for deallocation (column "user_objects_dealloc_page_count")36 SELECT * FROM sys.dm_db_session_space_usage37 WHERE session_id = @@SPID38 GO

从图中可以看出,这个表变量在临时表里需要分配5个页。因为这个表变量已经超过范围,这5个页面也已被标记为重分配(deallocation)。你要知道这个副作用。

表变量也没有统计信息。因此这里没有重编译发生。但是作为一个副作用,查询优化器始终认为估计行数为1.这个会非常,非常糟糕。如果你从表变量连接你数据库里另外一张表。在那个情况下,查选优化器在执行计划里引入嵌套循环连接(Nested Loop Join)运算符,引用的表变量作为外表,因为估计行数是1。如果事实上返回行是10000或更多的话,整个执行计划就谈不上最优。我们来看下面的例子(点击工具栏的显示包含实际的执行计划):

 1 CREATE PROCEDURE BadPerformingQuery 2 AS 3 BEGIN 4   DECLARE @tempTable TABLE 5   ( 6     ID INT IDENTITY(1, 1) PRIMARY KEY, 7     FirstName CHAR(4000), 8     LastName CHAR(4000) 9   )10   11   INSERT INTO @TempTable (FirstName, LastName)12   SELECT TOP 20000 name, name FROM master.dbo.syscolumns13   14   -- The physical Join Operator will be a Nested Loop,15   -- because Nested Loop is optimized for 1 row in the outer loop.16   SELECT * FROM AdventureWorks2008R2.Person.Person p17   INNER JOIN @tempTable t ON t.ID = p.BusinessEntityID18 END19 GO

我们仔细看下聚集索引扫描( Clustered Index Scan)运算符的属性信息,你会看到这里的估计行数是1,而实际行数却是12622。

你可以通过自SQL Server 2005起引入的语句级别的重编译(Statement-Level Recompilation)来修正这个参数预估错误。

 1 -- Use a statement-level recompilation to fix the problem with the  2 -- cardinality estimation. 3 ALTER PROCEDURE BadPerformingQuery 4 AS 5 BEGIN 6   DECLARE @tempTable TABLE 7   ( 8     ID INT IDENTITY(1, 1) PRIMARY KEY, 9     FirstName CHAR(4000),10     LastName CHAR(4000)11   )12   13   INSERT INTO @TempTable (FirstName, LastName)14   SELECT TOP 20000 name, name FROM master.dbo.syscolumns15   16   -- The physical Join Operator will be a Nested Loop,17   -- because Nested Loop is optimized for 1 row in the outer loop.18   SELECT * FROM AdventureWorks2008R2.Person.Person p19   INNER JOIN @tempTable t ON t.ID = p.BusinessEntityID20   OPTION (RECOMPILE)21 END22 GO

但是这个方法有点产生相反效果的(counter-productive),因为你又引入了重编译,原先你使用表变量就是为了避免重编译。

小结

使用表变量你可以避免SQL Server里重编译的负荷,但同样也有副作用。最大的副作用就是错误参数估计——估计行数为1。因此当你和小数量行打交道时可以使用表变量,因为那时错误的参数预估并不重要,也不影响你的性能。但和大量数据行打交道时,它会伤害你的性能,因为生成了低效的执行计划。

作为通常的经验法则(general rule-of-thumb),对于大数量的数据,你应该使用临时表,表变量用在小数量的数据上。但是你真的要为你的工作量测试(benchmark)下,来决定什么时候使用临时表,什么时候使用表变量是正确的。