處理百萬級以上的資料處理
處理百萬級以上的資料提高查詢速度的方法:
1.應儘量避免在 where 子句中使用!=或<>運算子,否則將引擎放棄使用索引而進行全表掃描。
2.對查詢進行最佳化,應儘量避免全表掃描,首先應考慮在 where 及 order by 涉及的列上建立索引。
3.應儘量避免在 where 子句中對欄位進行 null 值判斷,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num is null
可以在num上設定預設值0,確保表中num列沒有null值,然後這樣查詢:
select id from t where num=0
4.應儘量避免在 where 子句中使用 or 來連線條件,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num=10 or num=20
可以這樣查詢:
select id from t where num=10
union all
select id from t where num=20
5.下面的查詢也將導致全表掃描:(不能前置百分號)
select id from t where name like ‘%abc%’
若要提高效率,可以考慮全文檢索。
6.in 和 not in 也要慎用,否則會導致全表掃描,如:
select id from t where num in(1,2,3)
對於連續的數值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3
8.應儘量避免在 where 子句中對欄位進行表示式操作,這將導致引擎放棄使用索引而進行全表掃描。如:
select id from t where num/2=100
應改為:
select id from t where num=100*2
9.應儘量避免在where子句中對欄位進行函式操作,這將導致引擎放棄使用索引而進行全表掃描。如:
select id from t where substring(name,1,3)=’abc’–name以abc開頭的id
select id from t where datediff(day,createdate,’2005-11-30′)=0–’2005-11-30′生成的id
應改為:
select id from t where name like ‘abc%’
select id from t where createdate>=’2005-11-30′ and createdate
10.不要在 where 子句中的“=”左邊進行函式、算術運算或其他表示式運算,否則系統將可能無法正確使用索引。
11.在使用索引欄位作為條件時,如果該索引是複合索引,那麼必須使用到該索引中的第一個欄位作為條件時才能保證系統使用該索引,否則該索引將不會被使 用,並且應儘可能的讓欄位順序與索引順序相一致。
12.不要寫一些沒有意義的查詢,如需要生成一個空表結構:
select col1,col2 into #t from t where 1=0
這類程式碼不會返回任何結果集,但是會消耗系統資源的,應改成這樣:
create table #t(…)
13.很多時候用 exists 代替 in 是一個好的選擇:
select num from a where num in(select num from b)
用下面的語句替換:
select num from a where exists(select 1 from b where num=a.num)
14.並不是所有索引對查詢都有效,SQL是根據表中資料來進行查詢最佳化的,當索引列有大量資料重複時,SQL查詢可能不會去利用索引,如一表中有欄位 sex,male、female幾乎各一半,那麼即使在sex上建了索引也對查詢效率起不了作用。
15.索引並不是越多越好,索引固然可以提高相應的 select 的效率,但同時也降低了 insert 及 update 的效率,因為 insert 或 update 時有可能會重建索引,所以怎樣建索引需要慎重考慮,視具體情況而定。一個表的索引數最好不要超過6個,若太多則應考慮一些不常使用到的列上建的索引是否有 必要。
16.應儘可能的避免更新 clustered 索引資料列,因為 clustered 索引資料列的順序就是表記錄的物理儲存順序,一旦該列值改變將導致整個表記錄的順序的調整,會耗費相當大的資源。若應用系統需要頻繁更新 clustered 索引資料列,那麼需要考慮是否應將該索引建為 clustered 索引。
17.儘量使用數字型欄位,若只含數值資訊的欄位儘量不要設計為字元型,這會降低查詢和連線的效能,並會增加儲存開銷。這是因為引擎在處理查詢和連線時會 逐個比較字串中每一個字元,而對於數字型而言只需要比較一次就夠了。
18.儘可能的使用 varchar/nvarchar 代替 char/nchar ,因為首先變長欄位儲存空間小,可以節省儲存空間,其次對於查詢來說,在一個相對較小的欄位內搜尋效率顯然要高些。
19.任何地方都不要使用 select * from t ,用具體的欄位列表代替“*”,不要返回用不到的任何欄位。
20.儘量使用表變數來代替臨時表。如果表變數包含大量資料,請注意索引非常有限(只有主鍵索引)。
21.避免頻繁建立和刪除臨時表,以減少系統表資源的消耗。
22.臨時表並不是不可使用,適當地使用它們可以使某些例程更有效,例如,當需要重複引用大型表或常用表中的某個資料集時。但是,對於一次性事件,最好使 用匯出表。
23.在新建臨時表時,如果一次性插入資料量很大,那麼可以使用 select into 代替 create table,避免造成大量 log ,以提高速度;如果資料量不大,為了緩和系統表的資源,應先create table,然後insert。
24.如果使用到了臨時表,在儲存過程的最後務必將所有的臨時表顯式刪除,先 truncate table ,然後 drop table ,這樣可以避免系統表的較長時間鎖定。
25.儘量避免使用遊標,因為遊標的效率較差,如果遊標操作的資料超過1萬行,那麼就應該考慮改寫。
26.使用基於遊標的方法或臨時表方法之前,應先尋找基於集的解決方案來解決問題,基於集的方法通常更有效。
27.與臨時表一樣,遊標並不是不可使用。對小型資料集使用 FAST_FORWARD 遊標通常要優於其他逐行處理方法,尤其是在必須引用幾個表才能獲得所需的資料時。在結果集中包括“合計”的例程通常要比使用遊標執行的速度快。如果開發時 間允許,基於遊標的方法和基於集的方法都可以嘗試一下,看哪一種方法的效果更好。
28.在所有的儲存過程和觸發器的開始處設定 SET NOCOUNT ON ,在結束時設定 SET NOCOUNT OFF 。無需在執行儲存過程和觸發器的每個語句後向客戶端傳送 DONE_IN_PROC 訊息。
29.儘量避免向客戶端返回大資料量,若資料量過大,應該考慮相應需求是否合理。
30.儘量避免大事務操作,提高系統併發能力。
查詢速度慢的原因:
1、沒有索引或者沒有用到索引(這是查詢慢最常見的問題,是程式設計的缺陷)
2、I/O吞吐量小,形成了瓶頸效應。
3、沒有建立計算列導致查詢不最佳化。
4、記憶體不足
5、網路速度慢
6、查詢出的資料量過大(可以採用多次查詢,其他的方法降低資料量)
7、鎖或者死鎖(這也是查詢慢最常見的問題,是程式設計的缺陷)
8、sp_lock,sp_who,活動的使用者檢視,原因是讀寫競爭資源。
9、返回了不必要的行和列
10、查詢語句不好,沒有最佳化
可以透過如下方法來最佳化查詢
1、把資料、日誌、索引放到不同的I/O裝置上,增加讀取速度,以前可以將Tempdb應放在RAID0上,SQL2000不在支援。資料量(尺寸)越大,提高I/O越重要.
2、縱向、橫向分割表,減少表的尺寸(sp_spaceuse)
3、升級硬體
4、根據查詢條件,建立索引,最佳化索引、最佳化訪問方式,限制結果集的資料量。注意填充因子要適當(最好是使用預設值0)。索引應該儘量小,使用位元組數小的列建索引好(參照索引的建立),不要對有限的幾個值的欄位建單一索引如性別欄位
5、提高網速;
6、擴大伺服器的記憶體,Windows 2000和SQL server 2000能支援4-8G的記憶體。配置虛擬記憶體:虛擬記憶體大小應基於計算機上併發執行的服務進行配置。執行 Microsoft SQL Server? 2000 時,可考慮將虛擬記憶體大小設定為計算機中安裝的實體記憶體的 1.5 倍。如果另外安裝了全文檢索功能,並打算執行 Microsoft 搜尋服務以便執行全文索引和查詢,可考慮:將虛擬記憶體大小配置為至少是計算機中安裝的實體記憶體的 3 倍。將 SQL Server max server memory 伺服器配置選項配置為實體記憶體的 1.5 倍(虛擬記憶體大小設定的一半)。
7、增加伺服器CPU個數;但是必須明白並行處理序列處理更需要資源例如記憶體。使用並行還是序列程是MsSQL自動評估選擇的。單個任務分解成多個任務, 就可以在處理器上執行。例如耽擱查詢的排序、連線、掃描和GROUP BY字句同時執行,SQL SERVER根據系統的負載情況決定最優的並行等級,複雜的需要消耗大量的CPU的查詢最適合並行處理。但是更新操作UPDATE,INSERT, DELETE還不能並行處理。
8、如果是使用like進行查詢的話,簡單的使用index是不行的,但是全文索引,耗空間。 like 'a%' 使用索引 like '%a' 不使用索引用 like '%a%' 查詢時,查詢耗時和欄位值總長度成正比,所以不能用CHAR型別,而是VARCHAR。對於欄位的值很長的建全文索引。
9、DB Server 和APPLication Server 分離;OLTP和OLAP分離
10、分散式分割槽檢視可用於實現資料庫伺服器聯合體。聯合體是一組分開管理的伺服器,但它們相互協作分擔系統的處理負荷。這種透過分割槽資料形成資料庫服務
器聯合體的機制能夠擴大一組伺服器,以支援大型的多層 Web
站點的處理需要。有關更多資訊,參見設計聯合資料庫伺服器。(參照SQL幫助檔案'分割槽檢視')
a、在實現分割槽檢視之前,必須先水平分割槽表
b、在建立成員表後,在每個成員伺服器上定義一個分散式分割槽檢視,並且每個檢視具有相同的名稱。這樣,引用分散式分割槽檢視名的查詢可以在任何一個成員服務
器上執行。系統操作如同每個成員伺服器上都有一個原始表的複本一樣,但其實每個伺服器上只有一個成員表和一個分散式分割槽檢視。資料的位置對應用程式是透明
的。
11、重建索引 DBCC REINDEX ,DBCC INDEXDEFRAG,收縮資料和日誌 DBCC
SHRINKDB,DBCC SHRINKFILE. 設定自動收縮日誌.對於大的資料庫不要設定資料庫自動增長,它會降低伺服器的效能。
在T-sql的寫法上有很大的講究,下面列出常見的要點:首先,DBMS處理查詢計劃的過程是這樣的:
1、 查詢語句的詞法、語法檢查
2、 將語句提交給DBMS的查詢最佳化器
3、 最佳化器做代數最佳化和存取路徑的最佳化
4、 由預編譯模組生成查詢規劃
5、 然後在合適的時間提交給系統處理執行
6、 最後將執行結果返回給使用者其次,看一下SQL SERVER的資料存放的結構:一個頁面的大小為8K(8060)位元組,8個頁面為一個盤區,按照B樹存放。
12、Commit和rollback的區別 Rollback:回滾所有的事物。 Commit:提交當前的事物. 沒有必要在動態SQL裡寫事物,如果要寫請寫在外面如: begin tran exec(@s) commit trans 或者將動態SQL 寫成函式或者儲存過程。
13、在查詢Select語句中用Where字句限制返回的行數,避免表掃描,如果返回不必要的資料,浪費了伺服器的I/O資源,加重了網路的負擔降低效能。如果表很大,在表掃描的期間將表鎖住,禁止其他的聯接訪問表,後果嚴重。
14、SQL的註釋申明對執行沒有任何影響
15、儘可能不使用遊標,它佔用大量的資源。如果需要row-by-row地執行,儘量採用非游標技術,如:在客戶端迴圈,用臨時表,Table變數,用
子查詢,用Case語句等等。遊標可以按照它所支援的提取選項進行分類: 只進 必須按照從第一行到最後一行的順序提取行。FETCH
NEXT 是唯一允許的提取操作,也是預設方式。可滾動性
可以在遊標中任何地方隨機提取任意行。遊標的技術在SQL2000下變得功能很強大,他的目的是支援迴圈。
有四個併發選項
READ_ONLY:不允許透過遊標定位更新(Update),且在組成結果集的行中沒有鎖。
OPTIMISTIC WITH
valueS:樂觀併發控制是事務控制理論的一個標準部分。樂觀併發控制用於這樣的情形,即在開啟遊標及更新行的間隔中,只有很小的機會讓第二個使用者更新
某一行。當某個遊標以此選項開啟時,沒有鎖控制其中的行,這將有助於最大化其處理能力。如果使用者試圖修改某一行,則此行的當前值會與最後一次提取此行時獲
取的值進行比較。如果任何值發生改變,則伺服器就會知道其他人已更新了此行,並會返回一個錯誤。如果值是一樣的,伺服器就執行修改。
選擇這個併發選項?OPTIMISTIC WITH ROW
VERSIONING:此樂觀併發控制選項基於行版本控制。使用行版本控制,其中的表必須具有某種版本識別符號,伺服器可用它來確定該行在讀入遊標後是否有
所更改。
在 SQL Server 中,這個效能由 timestamp
資料型別提供,它是一個二進位制數字,表示資料庫中更改的相對順序。每個資料庫都有一個全域性當前時間戳值:@@DBTS。每次以任何方式更改帶有
timestamp 列的行時,SQL Server 先在時間戳列中儲存當前的 @@DBTS 值,然後增加
@@DBTS 的值。如果某 個表具有 timestamp
列,則時間戳會被記到行級。伺服器就可以比較某行的當前時間戳值和上次提取時所儲存的時間戳值,從而確定該行是否已更新。伺服器不必比較所有列的值,只需
比較 timestamp 列即可。如果應用程式對沒有 timestamp
列的表要求基於行版本控制的樂觀併發,則遊標預設為基於數值的樂觀併發控制。
SCROLL LOCKS
這個選項實現悲觀併發控制。在悲觀併發控制中,在把資料庫的行讀入遊標結果集時,應用程式將試圖鎖定資料庫行。在使用伺服器遊標時,將行讀入遊標時會在其
上放置一個更新鎖。如果在事務內開啟遊標,則該事務更新鎖將一直保持到事務被提交或回滾;當提取下一行時,將除去遊標鎖。如果在事務外開啟遊標,則提取下
一行時,鎖就被丟棄。因此,每當使用者需要完全的悲觀併發控制時,遊標都應在事務內開啟。更新鎖將阻止任何其它任務獲取更新鎖或排它鎖,從而阻止其它任務更
新該行。
然而,更新鎖並不阻止共享鎖,所以它不會阻止其它任務讀取行,除非第二個任務也在要求帶更新鎖的讀取。滾動鎖根據在遊標定義的
SELECT
語句中指定的鎖提示,這些遊標併發選項可以生成滾動鎖。滾動鎖在提取時在每行上獲取,並保持到下次提取或者遊標關閉,以先發生者為準。下次提取時,伺服器
為新提取中的行獲取滾動鎖,並釋放上次提取中行的滾動鎖。滾動鎖獨立於事務鎖,並可以保持到一個提交或回滾操作之後。如果提交時關閉遊標的選項為關,
則 COMMIT
語句並不關閉任何開啟的遊標,而且滾動鎖被保留到提交之後,以維護對所提取資料的隔離。所獲取滾動鎖的型別取決於遊標併發選項和遊標
SELECT 語句中的鎖提示。
鎖提示 只讀 樂觀數值 樂觀行版本控制 鎖定無提示
未鎖定 未鎖定 未鎖定 更新 NOLOCK 未鎖定 未鎖定 未鎖定 未鎖定 HOLDLOCK 共享
共享 共享 更新 UPDLOCK 錯誤 更新 更新 更新 TABLOCKX 錯誤 未鎖定
未鎖定 更新其它 未鎖定 未鎖定 未鎖定 更新 *指定 NOLOCK
提示將使指定了該提示的表在遊標內是隻讀的。
16、用Profiler來跟蹤查詢,得到查詢所需的時間,找出SQL的問題所在;用索引最佳化器最佳化索引
17、注意UNion和UNion all 的區別。UNION all好
18、注意使用DISTINCT,在沒有必要時不要用,它同UNION一樣會使查詢變慢。重複的記錄在查詢裡是沒有問題的
19、查詢時不要返回不需要的行、列
20、用sp_configure 'query governor cost limit'或者SET QUERY_GOVERNOR_COST_LIMIT來限制查詢消耗的資源。當評估查詢消耗的資源超出限制時,伺服器自動取消查詢,在查詢之前就扼殺掉。 SET LOCKTIME設定鎖的時間
21、用select top 100 / 10 Percent 來限制使用者返回的行數或者SET ROWCOUNT來限制操作的行
22、在SQL2000以前,一般不要用如下的字句 “IS NULL", " <> ", "!=",
"!> ", "!
也不要在WHere字句中的列名加函式,如Convert,substring等,如果必須用函式的時候,建立計算列再建立索引來替代.還可以變通寫
法:WHERE SUBSTRING(firstname,1,1) = 'm'改為WHERE firstname like
'm%'(索引掃描),一定要將函式和列名分開。並且索引不能建得太多和太大。
NOT IN會多次掃描表,使用EXISTS、NOT
EXISTS ,IN , LEFT OUTER JOIN
來替代,特別是左連線,而Exists比IN更快,最慢的是NOT操作.如果列的值含有空,以前它的索引不起作用,現在2000的最佳化器能夠處理了。相同
的是IS NULL,“NOT", "NOT EXISTS", "NOT IN"能最佳化她,而” <>
”等還是不能最佳化,用不到索引。
23、使用Query Analyzer,檢視SQL語句的查詢計劃和評估分析是否是最佳化的SQL。一般的20%的程式碼佔據了80%的資源,我們最佳化的重點是這些慢的地方。
24、如果使用了IN或者OR等時發現查詢沒有走索引,使用顯示申明指定索引: SELECT * FROM PersonMember (INDEX = IX_Title) WHERE processid IN (‘男’,‘女’)
25、將需要查詢的結果預先計算好放在表中,查詢的時候再SELECT。這在SQL7.0以前是最重要的手段。例如醫院的住院費計算。
26、MIN() 和 MAX()能使用到合適的索引
27、資料庫有一個原則是程式碼離資料越近越好,所以優先選擇Default,依次為Rules,Triggers, Constraint(約束如外健主健CheckUNIQUE……,資料型別的最大長度等等都是約束),Procedure.這樣不僅維護工作小,編寫程 序質量高,並且執行的速度快。
28、如果要插入大的二進位制值到Image列,使用儲存過程,千萬不要用內嵌INsert來插入(不知JAVA是否)。因為這樣應用程式首先將二進位制值轉 換成字串(尺寸是它的兩倍),伺服器受到字元後又將他轉換成二進位制值.儲存過程就沒有這些動作: 方法:Create procedure p_insert as insert into table(Fimage) values (@image), 在前臺呼叫這個儲存過程傳入二進位制引數,這樣處理速度明顯改善。
29、Between在某些時候比IN速度更快,Between能夠更快地根據索引找到範圍。用查詢最佳化器可見到差別。 select * from chineseresume where title in ('男','女') Select * from chineseresume where between '男' and '女' 是一樣的。由於in會在比較多次,所以有時會慢些。
30、在必要是對全域性或者區域性臨時表建立索引,有時能夠提高速度,但不是一定會這樣,因為索引也耗費大量的資源。他的建立同是實際表一樣。
31、不要建沒有作用的事物例如產生報表時,浪費資源。只有在必要使用事物時使用它。
32、用OR的字句可以分解成多個查詢,並且透過UNION 連線多個查詢。他們的速度只同是否使用索引有關,如果查詢需要用到聯合索引,用UNION all執行的效率更高.多個OR的字句沒有用到索引,改寫成UNION的形式再試圖與索引匹配。一個關鍵的問題是否用到索引。
33、儘量少用檢視,它的效率低。對檢視操作比直接對錶操作慢,可以用stored procedure來代替她。特別的是不要用檢視巢狀,巢狀檢視增加了尋找原始資料的難度。我們看檢視的本質:它是存放在伺服器上的被最佳化好了的已經產生 了查詢規劃的SQL。對單個表檢索資料時,不要使用指向多個表的檢視,直接從表檢索或者僅僅包含這個表的檢視上讀,否則增加了不必要的開銷,查詢受到幹 擾.為了加快檢視的查詢,MsSQL增加了檢視索引的功能。
34、沒有必要時不要用DISTINCT和ORDER BY,這些動作可以改在客戶端執行。它們增加了額外的開銷。這同UNION 和UNION ALL一樣的道理。 SELECT top 20 ad.companyname,comid,position,ad.referenceid,worklocation, convert(varchar(10),ad.postDate,120) as postDate1,workyear,degreedescription FROM jobcn_query.dbo.COMPANYAD_query ad where referenceID in('JCNAD00329667','JCNAD132168','JCNAD00337748','JCNAD00338345','JCNAD00333138','JCNAD00303570', 'JCNAD00303569','JCNAD00303568','JCNAD00306698','JCNAD00231935','JCNAD00231933','JCNAD00254567', 'JCNAD00254585','JCNAD00254608','JCNAD00254607','JCNAD00258524','JCNAD00332133','JCNAD00268618', 'JCNAD00279196','JCNAD00268613') order by postdate desc
35、在IN後面值的列表中,將出現最頻繁的值放在最前面,出現得最少的放在最後面,減少判斷的次數
36、當用SELECT INTO時,它會鎖住系統表(sysobjects,sysindexes等等),阻塞其他的連線的存取。建立臨時表時用顯示申明語句,而不是 select INTO. drop table t_lxh begin tran select * into t_lxh from chineseresume where name = 'XYZ' --commit 在另一個連線中SELECT * from sysobjects可以看到 SELECT INTO 會鎖住系統表,Create table 也會鎖系統表(不管是臨時表還是系統表)。所以千萬不要在事物內使用它!!!這樣的話如果是經常要用的臨時表請使用實表,或者臨時表變數。
37、一般在GROUP BY 個HAVING字句之前就能剔除多餘的行,所以儘量不要用它們來做剔除行的工作。他們的執行順序應該如下最優:select 的Where字句選擇所有合適的行,Group By用來分組個統計行,Having字句用來剔除多餘的分組。這樣Group By 個Having的開銷小,查詢快.對於大的資料行進行分組和Having十分消耗資源。如果Group BY的目的不包括計算,只是分組,那麼用Distinct更快
38、一次更新多條記錄比分多次更新每次一條快,就是說批處理好
39、少用臨時表,儘量用結果集和Table類性的變數來代替它,Table 型別的變數比臨時表好
40、在SQL2000下,計算欄位是可以索引的,需要滿足的條件如下:
a、計算欄位的表達是確定的
b、不能用在TEXT,Ntext,Image資料型別
c、必須配製如下選項 ANSI_NULLS = ON, ANSI_PADDINGS = ON, …….
41、儘量將資料的處理工作放在伺服器上,減少網路的開銷,如使用儲存過程。儲存過程是編譯好、最佳化過、並且被組織到一個執行規劃裡、且儲存在資料庫中的 SQL語句,是控制流語言的集合,速度當然快。反覆執行的動態SQL,可以使用臨時儲存過程,該過程(臨時表)被放在Tempdb中。以前由於SQL SERVER對複雜的數學計算不支援,所以不得不將這個工作放在其他的層上而增加網路的開銷。SQL2000支援UDFs,現在支援複雜的數學計算,函式 的返回值不要太大,這樣的開銷很大。使用者自定義函式象游標一樣執行的消耗大量的資源,如果返回大的結果採用儲存過程
42、不要在一句話裡再三的使用相同的函式,浪費資源,將結果放在變數裡再呼叫更快
43、SELECT COUNT(*)的效率教低,儘量變通他的寫法,而EXISTS快.同時請注意區別: select count(Field of null) from Table 和 select count(Field of NOT null) from Table 的返回值是不同的。
44、當伺服器的記憶體夠多時,配製執行緒數量 = 最大連線數+5,這樣能發揮最大的效率;否則使用 配製執行緒數量
45、按照一定的次序來訪問你的表。如果你先鎖住表A,再鎖住表B,那麼在所有的儲存過程中都要按照這個順序來鎖定它們。如果你(不經意的)某個儲存過程中先鎖定表B,再鎖定表A,這可能就會導致一個死鎖。如果鎖定順序沒有被預先詳細的設計好,死鎖很難被發現
46、透過SQL Server Performance Monitor監視相應硬體的負載 Memory: Page Faults / sec計數器如果該值偶爾走高,表明當時有執行緒競爭記憶體。如果持續很高,則記憶體可能是瓶頸。 Process:
1、% DPC Time 指在範例間隔期間處理器用在緩延程式呼叫(DPC)接收和提供服務的百分比。(DPC
正在執行的為比標準間隔優先權低的間隔)。 由於 DPC 是以特權模式執行的,DPC 時間的百分比為特權時間
百分比的一部分。這些時間單獨計算並且不屬於間隔計算總數的一部 分。這個總數顯示了作為例項時間百分比的平均忙時。
2、%Processor Time計數器 如果該引數值持續超過95%,表明瓶頸是CPU。可以考慮增加一個處理器或換一個更快的處理器。
3、% Privileged Time
指非閒置處理器時間用於特權模式的百分比。(特權模式是為作業系統元件和操縱硬體驅動程式而設計的一種處理模式。它允許直接訪問硬體和所有記憶體。另一種模
式為使用者模式,它是一種為應用程式、環境分系統和整數分系統設計的一種有限處理模式。作業系統將應用程式執行緒轉換成特權模式以訪問作業系統服務)。
特權時間的 % 包括為間斷和 DPC
提供服務的時間。特權時間比率高可能是由於失敗裝置產生的大數量的間隔而引起的。這個計數器將平均忙時作為樣本時間的一部分顯示。
4、% User Time表示耗費CPU的資料庫操作,如排序,執行aggregate
functions等。如果該值很高,可考慮增加索引,儘量使用簡單的表聯接,水平分割大表格等方法來降低該值。 Physical
Disk: Curretn Disk Queue
Length計數器該值應不超過磁碟數的1.5~2倍。要提高效能,可增加磁碟。 SQLServer:Cache Hit
Ratio計數器該值越高越好。如果持續低於80%,應考慮增加記憶體。 注意該引數值是從SQL
Server啟動後,就一直累加記數,所以執行經過一段時間後,該值將不能反映系統當前值。
47、分析select emp_name form employee where salary > 3000 在此語句中若salary是Float型別的,則最佳化器對其進行最佳化為Convert(float,3000),因為3000是個整數,我們應在程式設計時使 用3000.0而不要等執行時讓DBMS進行轉化。同樣字元和整型資料的轉換。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/23490154/viewspace-1063386/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 百億級資料處理優化優化
- Python資料處理(二):處理 Excel 資料PythonExcel
- EXCEL的重生!處理百萬行資料竟如此簡單Excel
- 資料處理
- 在`Laravel`中使用`cursor`來查詢並處理資料 (輕鬆處理千萬級的資料)Laravel
- 在Laravel中使用cursor來查詢並處理資料 (輕鬆處理千萬級的資料)Laravel
- EasyExcel處理Mysql百萬資料的匯入匯出案例,秒級效率,拿來即用!ExcelMySql
- 前端如何處理十萬級別的大量資料前端
- 億萬級資料處理的高效解決方案
- 資料預處理
- javascript - 資料處理JavaScript
- Excel 資料處理Excel
- 海量資料處理
- Panda資料處理
- PHP 結合 MySQL 千萬級資料處理PHPMySql
- 桌面輕量級資料處理指令碼指令碼
- 用Python Pandas處理億級資料Python
- 下載資料的處理
- 資料預處理的形式
- 資料預處理 demo
- 海量資料處理2
- 請求資料處理
- python 處理資料Python
- springmvc 資料處理SpringMVC
- 流資料處理利器
- R缺失資料處理
- 處理JSON資料JSON
- iOS空資料處理iOS
- 資料流處理命令
- 海量資料處理 (轉)
- 雨滴譜資料處理
- PHP+MySQL 千萬級資料處理案例(一)PHPMySql
- 資料庫升級問題處理一則資料庫
- Apache InLong畢業成為頂級專案,具備百萬億級資料流處理能力Apache
- 資料清洗和資料處理
- 資料預處理-資料清理
- 資料分析--資料預處理
- 第五篇:資料預處理(二) - 異常值處理