二、準備工作
在開始本教程之前,我們需要先安裝好Scrapy和MySQL,并創建好數據庫和數據表。這里我們以創建一個名為“scrapy_db”的數據庫和一個名為“scrapy_tb”的數據表為例。
三、編寫代碼
gs.py文件中添加以下代碼,用于連接數據庫。
MYSQL_HOST = 'localhost' # 數據庫地址
MYSQL_PORT = 3306 # 數據庫端口
MYSQL_USER = 'root' # 數據庫用戶名
MYSQL_PASSWORD = '123456' # 數據庫密碼
MYSQL_DBNAME = 'scrapy_db' # 數據庫名稱
es.py文件中添加以下代碼,用于將數據存入數據庫。
portysql
e(object):itysqlysqlysqlysqlysqlame):ysqlysql_hostysqlysql_portysqlysql_userysqlysql_passwordysqlameysqlame
ethod_crawler(cls, crawler): cls(ysqlgs.get('MYSQL_HOST'),ysqlgs.get('MYSQL_PORT'),ysqlgs.get('MYSQL_USER'),ysqlgs.get('MYSQL_PASSWORD'),ysqlamegs.get('MYSQL_DBNAME')
)
_spider(self, spider):ysqlnect(ysql_host,ysql_port,ysql_user,ysql_password,ysqlame,b4'
)
self.cursor = self.db.cursor()
def close_spider(self, spider):
self.db.close()
, spider):k) VALUES (%s, %s)"""k']))mit()
四、運行程序
在Scrapy項目中運行以下命令,啟動爬蟲程序。
ame為你編寫的爬蟲程序的名稱。
本文介紹了如何使用Scrapy將數據存入MySQL數據庫,希望能對大家有所幫助。在實際開發中,我們還可以根據需要對代碼進行優化和修改,實現更加高效的數據存儲。