中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么用python實現mysql數據同步到ElasticSearch

發布時間:2021-04-25 10:11:22 來源:億速云 閱讀:304 作者:小新 欄目:開發技術

小編給大家分享一下怎么用python實現mysql數據同步到ElasticSearch,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

python的數據類型有哪些?

python的數據類型:1. 數字類型,包括int(整型)、long(長整型)和float(浮點型)。2.字符串,分別是str類型和unicode類型。3.布爾型,Python布爾類型也是用于邏輯運算,有兩個值:True(真)和False(假)。4.列表,列表是Python中使用最頻繁的數據類型,集合中可以放任何數據類型。5. 元組,元組用”()”標識,內部元素用逗號隔開。6. 字典,字典是一種鍵值對的集合。7. 集合,集合是一個無序的、不重復的數據組合。

之前博客有用logstash-input-jdbc同步mysql數據到ElasticSearch,但是由于同步時間最少是一分鐘一次,無法滿足線上業務,所以只能自己實現一個,但是時間比較緊,所以簡單實現一個

思路:

網上有很多思路用什么mysql的binlog功能什么的,但是我對mysql了解實在有限,所以用一個很呆板的辦法查詢mysql得到數據,再插入es,因為數據量不大,而且10秒間隔同步一次,效率還可以,為了避免服務器之間的時間差和mysql更新和查詢產生的時間差,所以在查詢更新時間條件時是和上一次同步開始時間比較,這樣不管數據多少,更新耗時多少都不會少數據,因為原則是同步不漏掉任何數據,也可以程序多開將時間差和間隔時間差異化,因為用mysql中一個id當作es中的id,也避免了重復數據

使用:

只需要按照escongif.py寫配置文件,然后寫sql文件,最后直接執行mstes.py就可以了,我這個也是參考logstash-input-jdbc的配置形式

MsToEs

|----esconfig.py(配置文件)

|----mstes.py(同步程序)

|----sql_manage.py(數據庫管理)

|----aa.sql(需要用到sql文件)

|----bb.sql(需要用到sql文件)

sql_manage.py:

# -*-coding:utf-8 -*-
__author__ = "ZJL"
from sqlalchemy.pool import QueuePool
from sqlalchemy import create_engine
from sqlalchemy.orm import sessionmaker, scoped_session
import traceback
import esconfig
# 用于不需要回滾和提交的操作
def find(func):
 def wrapper(self, *args, **kwargs):
  try:
   return func(self, *args, **kwargs)
  except Exception as e:
   print(traceback.format_exc())
   print(str(e))
   return traceback.format_exc()
  finally:
   self.session.close()
 return wrapper
class MysqlManager(object):
 def __init__(self):
  mysql_connection_string = esconfig.mysql.get("mysql_connection_string")
  self.engine = create_engine('mysql+pymysql://'+mysql_connection_string+'?charset=utf8', poolclass=QueuePool,
         pool_recycle=3600)
  # self.DB_Session = sessionmaker(bind=self.engine)
  # self.session = self.DB_Session()
  self.DB_Session = sessionmaker(bind=self.engine, autocommit=False, autoflush=True, expire_on_commit=False)
  self.db = scoped_session(self.DB_Session)
  self.session = self.db()
 @find
 def select_all_dict(self, sql, keys):
  a = self.session.execute(sql)
  a = a.fetchall()
  lists = []
  for i in a:
   if len(keys) == len(i):
    data_dict = {}
    for k, v in zip(keys, i):
     data_dict[k] = v
    lists.append(data_dict)
   else:
    return False
  return lists
 # 關閉
 def close(self):
  self.session.close()

aa.sql:

select 
 CONVERT(c.`id`,CHAR)    as id, 
 c.`code`   as code, 
 c.`project_name` as project_name, 
 c.`name`   as name, 
 date_format(c.`update_time`,'%Y-%m-%dT%H:%i:%s')  as update_time, 
from `cc` c 
where date_format(c.`update_time`,'%Y-%m-%dT%H:%i:%s')>='::datetime_now';

bb.sql:

select 
 CONVERT(c.`id`,CHAR)    as id, 
 CONVERT(c.`age`,CHAR)    as age, 
 c.`code`   as code, 
 c.`name`   as name, 
 c.`project_name` as project_name, 
 date_format(c.`update_time`,'%Y-%m-%dT%H:%i:%s') as update_time, 
from `bb` c 
where date_format(c.`update_time`,'%Y-%m-%dT%H:%i:%s')>='::datetime_now';

esconfig.py:

# -*- coding: utf-8 -*-
#__author__="ZJL"
# sql 文件名與es中的type名一致
mysql = {
 # mysql連接信息
 "mysql_connection_string": "root:123456@127.0.0.1:3306/xxx",
 # sql文件信息
 "statement_filespath":[
  # sql對應的es索引和es類型
  {
   "index":"a1",
   "sqlfile":"aa.sql",
   "type":"aa"
  },
  {
   "index":"a1",
   "sqlfile":"bb.sql",
   "type":"bb"
  },
 ],
}
# es的ip和端口
elasticsearch = {
 "hosts":"127.0.0.1:9200",
}
# 字段順序與sql文件字段順序一致,這是存進es中的字段名,這里用es的type名作為標識
db_field = {
  "aa":
   ("id",
   "code",
   "name",
   "project_name",
   "update_time",
   ),
 "bb":
  ("id",
   "code",
   "age",
   "project_name",
   "name",
   "update_time",
   ),
}
es_config = {
 # 間隔多少秒同步一次
 "sleep_time":10,
 # 為了解決服務器之間時間差問題
 "time_difference":3,
 # show_json 用來展示導入的json格式數據,
 "show_json":False,
}

mstes.py:

# -*- coding: utf-8 -*-
#__author__="ZJL"
from sql_manage import MysqlManager
from esconfig import mysql,elasticsearch,db_field,es_config
from elasticsearch import Elasticsearch
from elasticsearch import helpers
import traceback
import time
class TongBu(object):
 def __init__(self):
  try:
   # 是否展示json數據在控制臺
   self.show_json = es_config.get("show_json")
   # 間隔多少秒同步一次
   self.sleep_time = es_config.get("sleep_time")
   # 為了解決同步時數據更新產生的誤差
   self.time_difference = es_config.get("time_difference")
   # 當前時間,留有后用
   self.datetime_now = ""
   # es的ip和端口
   es_host = elasticsearch.get("hosts")
   # 連接es
   self.es = Elasticsearch(es_host)
   # 連接mysql
   self.mm = MysqlManager()
  except :
   print(traceback.format_exc())
 def tongbu_es_mm(self):
  try:
   # 同步開始時間
   start_time = time.time()
   print("start..............",time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(start_time)))
   # 這個list用于批量插入es
   actions = []
   # 獲得所有sql文件list
   statement_filespath = mysql.get("statement_filespath",[])
   if self.datetime_now:
    # 當前時間加上時間差(間隔時間加上執行同步用掉的時間,等于上一次同步開始時間)再字符串格式化
    # sql中格式化時間時年月日和時分秒之間不能空格,不然導入es時報解析錯誤,所以這里的時間格式化也統一中間加一個T
    self.datetime_now = time.strftime("%Y-%m-%dT%H:%M:%S", time.localtime(time.time()-(self.sleep_time+self.time_difference)))
   else:
    self.datetime_now = "1999-01-01T00:00:00"
   if statement_filespath:
    for filepath in statement_filespath:
     # sql文件
     sqlfile = filepath.get("sqlfile")
     # es的索引
     es_index = filepath.get("index")
     # es的type
     es_type = filepath.get("type")
     # 讀取sql文件內容
     with open(sqlfile,"r") as opf:
      sqldatas = opf.read()
      # ::datetime_now是一個自定義的特殊字符串用于增量更新
      if "::datetime_now" in sqldatas:
       sqldatas = sqldatas.replace("::datetime_now",self.datetime_now)
      else:
       sqldatas = sqldatas
      # es和sql字段的映射
      dict_set = db_field.get(es_type)
      # 訪問mysql,得到一個list,元素都是字典,鍵是字段名,值是數據
      db_data_list = self.mm.select_all_dict(sqldatas, dict_set)
      if db_data_list:
       # 將數據拼裝成es的格式
       for db_data in db_data_list:
        action = {
         "_index": es_index,
         "_type": es_type,
         "@timestamp": time.strftime("%Y-%m-%dT%H:%M:%S", time.localtime(time.time())),
         "_source": db_data
        }
        # 如果沒有id字段就自動生成
        es_id = db_data.get("id", "")
        if es_id:
         action["_id"] = es_id
        # 是否顯示json再終端
        if self.show_json:
         print(action)
        # 將拼裝好的數據放進list中
        actions.append(action)
   # list不為空就批量插入數據到es中
   if len(actions) > 0 :
    helpers.bulk(self.es, actions)
  except Exception as e:
   print(traceback.format_exc())
  else:
   end_time = time.time()
   print("end...................",time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(start_time)))
   self.time_difference = end_time-start_time
  finally:
   # 報錯就關閉數據庫
   self.mm.close()
def main():
 tb = TongBu()
 # 間隔多少秒同步一次
 sleep_time = tb.sleep_time
 # 死循環執行導入數據,加上時間間隔
 while True:
  tb.tongbu_es_mm()
  time.sleep(sleep_time)
if __name__ == '__main__':
 main()

以上是“怎么用python實現mysql數據同步到ElasticSearch”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

襄城县| 民丰县| 乌鲁木齐县| 肇东市| 齐齐哈尔市| 木兰县| 施甸县| 沛县| 六枝特区| 鹰潭市| 射洪县| 彰武县| 宜城市| 裕民县| 赣榆县| 郯城县| 青神县| 清水县| 天水市| 通河县| 清丰县| 阿荣旗| 三河市| 页游| 五家渠市| 仪陇县| 西峡县| 漳浦县| 司法| 布拖县| 东阳市| 肇源县| 湟中县| 林芝县| 宝清县| 华坪县| 漾濞| 黄浦区| 眉山市| 巨鹿县| 星子县|