大容量csv快速內(nèi)導(dǎo)入sqlserver的解決方法(推薦)
在論壇中回答了一個問題,導(dǎo)入csv 數(shù)據(jù),并對導(dǎo)入的數(shù)據(jù)增加一個新的列date datetime。要求在10s內(nèi)完成,200w行數(shù)據(jù)的導(dǎo)入.分享下解決問題的思路和方法
分析
通常來講Bulk insert 比 BCP 更快一點,我們選擇Bulk insert的方式。 提出的解決方案:先把數(shù)據(jù)導(dǎo)入到sql server 的臨時表,然后再插入目標(biāo)表。 具體語句如下:
bulk insert test07232 from 'D:\2017-7-22.csv' WITH ( FIELDTERMINATOR = ',', ROWTERMINATOR = '/n' ) SELECT * ,GETDATE() AS Date INTO ttt FROM test07232
但是他提供的的csv 進行導(dǎo)入時,提示如下錯誤
消息 4866,級別 16,狀態(tài) 1,第 1 行 大容量加載失敗。數(shù)據(jù)文件中第 1 行的第 2 列太長。請驗證是否正確指定了字段終止符和行終止符。 消息 7399,級別 16,狀態(tài) 1,第 1 行 鏈接服務(wù)器 "(null)" 的 OLE DB 訪問接口 "BULK" 報錯。提供程序未給出有關(guān)錯誤的任何信息。
消息 7330,級別 16,狀態(tài) 2,第 1 行 無法從鏈接服務(wù)器 "(null)" 的 OLE DB 訪問接口"BULK"提取行。
這是由于行終止符無法識別導(dǎo)致的。使用notepad++打開csv文件,在視圖中選擇顯示行尾號。
可以看到文件的換行符是LF
而對于正常的csv問題 默認是用CRLF作為換行符的
因此上面的bulk insert 語句無法正常執(zhí)行。
解決
1.首先想到的是修改數(shù)據(jù)源頭,讓源頭產(chǎn)生正常的數(shù)據(jù),但是源頭數(shù)據(jù)不好修改 2.用程序,寫c#處理,,太費時間 3.最后終于找到了正確的辦法
bulk insert test07232 from 'D:\2017-7-22.csv' WITH ( FIELDTERMINATOR = ',', ROWTERMINATOR = '0x0a' ) SELECT * ,GETDATE() AS Date INTO ttt FROM test07232
最后全部都在SSD 上,導(dǎo)入用時2s。生產(chǎn)正式表1s 。整個過程3s完成。
總結(jié)
解決問題要從各個問題入手,找到原因才更好的解決問題
總結(jié)
以上所述是小編給大家介紹的大容量csv快速內(nèi)導(dǎo)入sqlserver的解決方法,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復(fù)大家的。在此也非常感謝大家對本站網(wǎng)站的支持!
版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。