当前位置: 首页 > news >正文

如何做漫画赚钱的网站赣州seo唐三

如何做漫画赚钱的网站,赣州seo唐三,贵阳网站外包,discuz应用中心退款windows环境下安装logstash同步数据,注册系统服务 此方法适用于Windows环境,同一个配置文件配置多个管道,并且配置系统服务,防止程序被杀进程 一、安装logstash (1)下载压缩包,解压后修改con…

windows环境下安装logstash同步数据,注册系统服务

此方法适用于Windows环境,同一个配置文件配置多个管道,并且配置系统服务,防止程序被杀进程

一、安装logstash

(1)下载压缩包,解压后修改config文件夹中的logstash-sample.conf文件

# Sample Logstash configuration for creating a simple
# Beats -> Logstash -> Elasticsearch pipeline.input {
# 日志列表
jdbc {jdbc_driver_library => "D:\logstash-7.2.0\logstash-7.2.0\lib\ojdbc8-19.3.0.0.jar"jdbc_driver_class => "Java::oracle.jdbc.driver.OracleDriver"jdbc_connection_string => "jdbc:oracle:thin:@127.0.0.1:1521:orcl"jdbc_user => "admin"jdbc_password => "123456"# statement => "SELECT * FROM tb_hotel"statement_filepath => "D:\logstash-7.2.0\logstash-7.2.0\sql\admin_gatelog.sql"jdbc_paging_enabled => truejdbc_page_size => 10000jdbc_default_timezone => "Asia/Shanghai"schedule => "* * * * *"# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件record_last_run => true# 需要记录查询结果某字段的值时,此字段为true,否则默认tracking_column为timestamp的值use_column_value => true# 记录上一次追踪的结果值last_run_metadata_path => "D:\logstash-7.2.0\logstash-7.2.0\sync\last_run_gatelog.yml"# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间tracking_column => "crtTime"# tracking_column 对应字段的类型tracking_column_type => "timestamp"# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录clean_run => false}
# 文件管理
jdbc {jdbc_driver_library => "D:\logstash-7.2.0\logstash-7.2.0\lib\ojdbc8-19.3.0.0.jar"jdbc_driver_class => "Java::oracle.jdbc.driver.OracleDriver"jdbc_connection_string => "jdbc:oracle:thin:@127.0.0.1:1521:orcl"jdbc_user => "mbbb"jdbc_password => "123456"# statement => "SELECT * FROM tb_hotel"statement_filepath => "D:\logstash-7.2.0\logstash-7.2.0\sql\admin_fileManage.sql"jdbc_paging_enabled => truejdbc_page_size => 10000jdbc_default_timezone => "Asia/Shanghai"schedule => "* * * * *"# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件record_last_run => true# 需要记录查询结果某字段的值时,此字段为true,否则默认tracking_column为timestamp的值use_column_value => true# 记录上一次追踪的结果值last_run_metadata_path => "D:\logstash-7.2.0\logstash-7.2.0\sync\last_run_file_manage.yml"# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间tracking_column => "create_time"# tracking_column 对应字段的类型tracking_column_type => "timestamp"# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录clean_run => false
}
# 消息审计
jdbc {jdbc_driver_library => "D:\logstash-7.2.0\logstash-7.2.0\lib\ojdbc8-19.3.0.0.jar"jdbc_driver_class => "Java::oracle.jdbc.driver.OracleDriver"jdbc_connection_string => "jdbc:oracle:thin:@127.0.0.1:1521:orcl"jdbc_user => "admin"jdbc_password => "123456"# statement => "SELECT * FROM tb_hotel"statement_filepath => "D:\logstash-7.2.0\logstash-7.2.0\sql\admin_messageLog.sql"jdbc_paging_enabled => truejdbc_page_size => 10000jdbc_default_timezone => "Asia/Shanghai"schedule => "* * * * *"# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件record_last_run => true# 需要记录查询结果某字段的值时,此字段为true,否则默认tracking_column为timestamp的值use_column_value => true# 记录上一次追踪的结果值last_run_metadata_path => "D:\logstash-7.2.0\logstash-7.2.0\sync\last_run_message_log.yml"# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间tracking_column => "createtime"# tracking_column 对应字段的类型tracking_column_type => "timestamp"# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录clean_run => false
}beats {port => 5044}stdin{}
}filter {}output {elasticsearch {hosts => ["http://127.0.0.1:9201","http://127.0.0.1:9202","http://127.0.0.1:9203"]# index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"index => "%{es_index}_index"document_type => "doc"document_id => "%{id}"user => "elastic"password => "elastic"}stdout{}
}

(2)在sql文件夹中创建admin_gatelog.sql文件

select 'gate_log'                                 as es_index,  # 必须ROWNUM,   # 必须ID,   # 必须MENU,OPT,URI,to_char(CRT_TIME, 'YYYY-MM-DD HH24:MI:SS') as crtTime, # 必须  和tracking_column对应,任何时间字段都可CRT_USER                                   as crtUser,CRT_NAME                                   as crtName,CRT_HOST                                   as crtHost,IS_SUCCESS                                 as isSuccess,P_ID                                       as pId,OPT_INFO                                   as optInfo,ORG_NAME                                   as orgName,ORG_CODE                                   as orgCode,PATH_CODE                                  as pathCode,PATH_NAME                                  as pathName
from TABLE
where to_timestamp(to_char(CRT_TIME, 'YYYY-MM-DD HH24:MI:SS'), 'YYYY-MM-DD HH24:MI:SS') > :sql_last_value

(3)在symc文件夹中创建 某某.yml文件用来记录数据中最后同步的日期

(4)修改jvm.options的

-Xms5g
-Xmx5g

(5)查看lib 、sql、sync文件夹的配置(没有这些文件夹的请创建),其中:

lib里面放着oracle数据库连接的驱动。(mysql也可以)

sql里面放着配置的要执行的sql文件。

sync里面放着每条sql查询数据全部同步完成后的最新数据的的日期(指定字段的最新日期)

(6)进入到bin目录启动logstash

D:\logstash-7.2.0\logstash-7.2.0\bin>logstash -f D:\logstash-7.2.0\logstash-7.2.0\config\logstash-sample.conf

(7)windows环境下配置系统服务

详细配置请查看附属文档nssm将logstash注册系统服务.pdf

二、附加

影响插入性能的主要因素如下:

一. 服务端

1、磁盘写入速度:越快越好,最好是SSD以上。
2、CPU运算性能:越快越好,多核心可能有益处。
3、内存用量:内存用量大,分配更大容量较好。
4、分片数:与节点数相关,默认5个分片较好。尽量不要让主分片分布在低速节点上。若集群中节点是高低性能搭配的情况,则只分配1个主分片到高速节点上较好,低速节点可用于添加副本。初始导入大量数据前设置索引的副本数为0,导入完成后再开启期望副本数,副本的存在对导入效率的影响成倍提高。
二. 客户端

客户端提交数据采用bulk方式效率高,transport-client略快于rest-client。异步提交比同步提交更能压榨服务器性能。综合比较建议采用bulk+rest+async组合。
bulk批次大小,一般单笔1000条以上或传输数据量在5M-15M左右。实测当中,主要观察服务器处理能力,若服务器处理时间较长导致异步提交响应超时,则要降低单笔传送数据量。

关于分片和副本
1、若索引的分片数(shards)大于1,则索引数据将自动分布在多个分片上,若每个分片分布在不同的实体节点上,则大批量提交数据时可将写入操作分布到不同节点并发进行,从而会提高写入速度。分片数这个参数在创建索引时就固化下来,以后难以更改。
2、副本(replica)是分片的数据备份,同时也提供查询功能。若设置副本数为1,则每个分片都会有1个副本。大批量提交数据时,副本的存在会使得写入数据时间加倍。所幸副本数这个参数可以随时调整,在大批量导入操作开始时将其设置为0,待导入数据完成再修改为1即可,ES引擎会自动处理副本数据。

三、解决elasticsearch限制:

logstash.outputs.elasticsearch] retrying failed action with response code: 429 ({"type"=>"circuit_breaking_exception", "reason"=>"[parent] Data too large, data for [<transport_request>] would be [255226018/243.4mb], which is larger than the limit of [246546432/235.1mb], real usage: [255206808/243.3mb], new bytes reserved: [19210/18.7kb]", "bytes_wanted"=>255226018, "bytes_limit"=>246546432, "durability"=>"PERMANENT"})

添加或修改相关配置项:在 elasticsearch.yml 文件中,你可以添加或修改与数据大小限制有关的配置项。以下是一些常用的配置项:

  • indices.breaker.total.limit:这个配置项用于设置整个索引的数据大小限制。你可以将其设置为你希望的限制值。例如,将限制设置为 1GB:

    indices.breaker.total.limit: 1gb
    
  • indices.breaker.total.use_real_memory:默认情况下,Elasticsearch 使用 Java 运行时环境的堆内存大小来计算数据大小限制。你可以将此配置项设置为 false,以使用 Elasticsearch 自己的内存计算,这有助于更精确地控制限制。例如:

    indices.breaker.total.use_real_memory: false
    
http://www.hrbkazy.com/news/31783.html

相关文章:

  • 做推文封面图网站搜狗seo快速排名公司
  • 天河做网站技术免费发布广告的平台
  • 网站开发模版下载全网搜索指数查询
  • 哈尔滨网站建设2017国内设计公司前十名
  • 邯郸自媒体有哪些百度关键词优化送网站
  • 微信公众号怎么开通免费广安seo外包
  • qq音乐如何做mp3下载网站中国国家培训网官网
  • 什么是顺联网络营销sem和seo是什么
  • 网站图片标题背景怎样做的技能培训班有哪些
  • 赣州专业企业网站建设互联网营销怎么赚钱
  • dw网页设计实训心得关键词优化seo优化
  • 汽车网站模板江苏seo排名
  • 找人做事的网站网络推广协议
  • 创建全国文明城市宣传栏深圳知名seo公司
  • 短视频网站php源码免费北京新闻最新消息
  • 网站做的支付宝接口衡水seo培训
  • 素材网站个人做的网站黄页推广软件
  • 福建住房和城乡建设厅政府网站seo网站优化方
  • 厦门网站设计定制推广引流方法与渠道
  • 校园网站怎么建设谷歌搜索广告优化
  • 2345影视大全可以放心下载吗昆明百度推广优化
  • 网站首页源码淘宝指数网址
  • 惠阳东莞网站建设长沙优化官网服务
  • 长沙网站优化外包服务广西seo公司
  • 做公益活动的网站网页设计与制作代码成品
  • 网站页面优化怎么做原画培训班一般学费多少
  • 吉林省建设厅门户网站网络营销与策划
  • 韩国女足出线了吗搜索引擎优化排名优化培训
  • 响应式网站好不好上海推广服务
  • 百度推广网站谁做永久免费域名申请