当前位置: 首页 > news >正文

网站下方一般放什么对网络营销的认识有哪些

网站下方一般放什么,对网络营销的认识有哪些,wordpress网站统计代码,谷德设计网官网首页作者:来自 Elastic Andre Luiz 将 Apache Kafka 与 Elasticsearch 集成的分步指南,以便使用 Python、Docker Compose 和 Kafka Connect 实现高效的数据提取、索引和可视化。 在本文中,我们将展示如何将 Apache Kafka 与 Elasticsearch 集成以…

作者:来自 Elastic Andre Luiz

将 Apache Kafka 与 Elasticsearch 集成的分步指南,以便使用 Python、Docker Compose 和 Kafka Connect 实现高效的数据提取、索引和可视化。

在本文中,我们将展示如何将 Apache Kafka 与 Elasticsearch 集成以进行数据提取和索引。我们将概述 Kafka、其生产者(producers)和消费者(consumers)的概念,并创建一个日志索引,其中将通过 Apache Kafka 接收和索引消息。该项目以 Python 实现,代码可在 GitHub 上找到。

先决条件

  • Docker 和 Docker Compose:确保你的机器上安装了 Docker 和 Docker Compose。
  • Python 3.x:运行生产者和消费者脚本。

Apache Kafka 简介

Apache Kafka 是一个分布式流媒体平台,具有高可扩展性和可用性以及容错能力。在 Kafka 中,数据管理通过主要组件进行:

  • Broker/代理:负责在生产者和消费者之间存储和分发消息。
  • Zookeeper:管理和协调 Kafka 代理,控制集群的状态、分区领导者和消费者信息。
  • Topics/主题:发布和存储数据以供使用的渠道。
  • Consumers 及 Producers/消费者和生产者:生产者向主题发送数据,而消费者则检索该数据。

这些组件共同构成了 Kafka 生态系统,为数据流提供了强大的框架。

项目结构

为了理解数据提取过程,我们将其分为几个阶段:

  • 基础设施配置/Infrastructure Provisioning:设置 Docker 环境以支持 Kafka、Elasticsearch 和 Kibana。
  • 创建生产者/Producer Creation:实现 Kafka 生产者,将数据发送到日志主题。
  • 创建消费者/Consumer Creation:开发 Kafka 消费者以读取和索引 Elasticsearch 中的消息。
  • 提取验证/Ingestion Validation:验证和确认已发送和已使用的数据。

使用 Docker Compose 进行基础设施配置

我们利用 Docker Compose 来配置和管理必要的服务。下面,你将找到 Docker Compose 代码,它设置了 Apache Kafka、Elasticsearch 和 Kibana 集成所需的每项服务,确保数据提取过程。

docker-compose.yml

version: "3"services:zookeeper:image: confluentinc/cp-zookeeper:latestcontainer_name: zookeeperenvironment:ZOOKEEPER_CLIENT_PORT: 2181kafka:image: confluentinc/cp-kafka:latestcontainer_name: kafkadepends_on:- zookeeperports:- "9092:9092"- "9094:9094"environment:KAFKA_BROKER_ID: 1KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka:29092,PLAINTEXT_HOST:${HOST_IP}:9092KAFKA_LISTENER_SECURITY_PROTOCOL_MAP: PLAINTEXT:PLAINTEXT,PLAINTEXT_HOST:PLAINTEXTKAFKA_INTER_BROKER_LISTENER_NAME: PLAINTEXTKAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1elasticsearch:image: docker.elastic.co/elasticsearch/elasticsearch:8.15.1container_name: elasticsearch-8.15.1environment:- node.name=elasticsearch- xpack.security.enabled=false- discovery.type=single-node- "ES_JAVA_OPTS=-Xms512m -Xmx512m"volumes:- ./elasticsearch:/usr/share/elasticsearch/dataports:- 9200:9200kibana:image: docker.elastic.co/kibana/kibana:8.15.1container_name: kibana-8.15.1ports:- 5601:5601environment:ELASTICSEARCH_URL: http://elasticsearch:9200ELASTICSEARCH_HOSTS: '["http://elasticsearch:9200"]'

你可以直接从 Elasticsearch Labs GitHub repo 访问该文件。

使用 Kafka 生产器发送数据

生产器负责将消息发送到日志主题。通过批量发送消息,可以提高网络使用效率,允许使用 batch_size 和 linger_ms 设置进行优化,这两个设置分别控制批次的数量和延迟。配置 acks='all' 可确保消息持久存储,这对于重要的日志数据至关重要。

producer = KafkaProducer(bootstrap_servers=['localhost:9092'],  # Specifies the Kafka server to connectvalue_serializer=lambda x: json.dumps(x).encode('utf-8'),  # Serializes data as JSON and encodes it to UTF-8 before sendingbatch_size=16384,     # Sets the maximum batch size in bytes (here, 16 KB) for buffered messages before sendinglinger_ms=10,         # Sets the maximum delay (in milliseconds) before sending the batchacks='all'            # Specifies acknowledgment level; 'all' ensures message durability by waiting for all replicas to acknowledge
)def generate_log_message():levels = ["INFO", "WARNING", "ERROR", "DEBUG"]messages = ["User login successful","User login failed","Database connection established","Database connection failed","Service started","Service stopped","Payment processed","Payment failed"]log_entry = {"level": random.choice(levels),"message": random.choice(messages),"timestamp": time.time()}return log_entrydef send_log_batches(topic, num_batches=5, batch_size=10):for i in range(num_batches):logger.info(f"Sending batch {i + 1}/{num_batches}")for _ in range(batch_size):log_message = generate_log_message()producer.send(topic, value=log_message)producer.flush()if __name__ == "__main__":topic = "logs"send_log_batches(topic)producer.close()

当启动 producer 的时候,会批量的向 topic 发送消息,如下图:

INFO:kafka.conn:Set configuration …
INFO:log_producer:Sending batch 1/5 
INFO:log_producer:Sending batch 2/5
INFO:log_producer:Sending batch 3/5
INFO:log_producer:Sending batch 4/5

使用 Kafka Consumer 消费和索引数据

Consumer 旨在高效处理消息,消费来自日志主题的批次并将其索引到 Elasticsearch 中。使用 auto_offset_reset='latest',可确保 Consumer 开始处理最新消息,忽略较旧的消息,max_poll_records=10 将批次限制为 10 条消息。使用 fetch_max_wait_ms=2000,Consumer 最多等待 2 秒以积累足够的消息,然后再处理批次。

在其主循环中,Consumer 消费日志消息、处理并将每个批次索引到 Elasticsearch 中,确保持续的数据摄取。

consumer = KafkaConsumer('logs',                               bootstrap_servers=['localhost:9092'],auto_offset_reset='latest',            # Ensures reading from the latest offset if the group has no offset storedenable_auto_commit=True,               # Automatically commits the offset after processinggroup_id='log_consumer_group',         # Specifies the consumer group to manage offset trackingmax_poll_records=10,                   # Maximum number of messages per batchfetch_max_wait_ms=2000                 # Maximum wait time to form a batch (in ms)
)def create_bulk_actions(logs):for log in logs:yield {"_index": "logs","_source": {'level': log['level'],'message': log['message'],'timestamp': log['timestamp']}}if __name__ == "__main__":try:print("Starting message processing…")while True:messages = consumer.poll(timeout_ms=1000)  # Poll receive messages# process each batch messagesfor _, records in messages.items():logs = [json.loads(record.value) for record in records]bulk_actions = create_bulk_actions(logs)response = helpers.bulk(es, bulk_actions)print(f"Indexed {response[0]} logs.")except Exception as e:print(f"Erro: {e}")finally:consumer.close()print(f"Finish")

在 Kibana 中可视化数据

借助 Kibana,我们可以探索和验证从 Kafka 提取并在 Elasticsearch 中编入索引的数据。通过访问 Kibana 中的开发工具,你可以查看已编入索引的消息并确认数据符合预期。例如,如果我们的 Kafka 生产者发送了 5 个批次,每个批次 10 条消息,我们应该在索引中看到总共 50 条记录。

要验证数据,你可以在 Dev Tools 部分使用以下查询:

GET /logs/_search
{"query": {"match_all": {}}
}

相应:

此外,Kibana 还提供了创建可视化和仪表板的功能,可帮助使分析更加直观和具有交互性。下面,你可以看到我们创建的一些仪表板和可视化示例,它们以各种格式展示了数据,增强了我们对所处理信息的理解。

使用 Kafka Connect 进行数据提取

Kafka Connect 是一种旨在促进数据源和目标(接收器)之间的集成的服务,例如数据库或文件系统。它使用预定义的连接器来自动处理数据移动。在我们的例子中,Elasticsearch 充当数据接收器。

使用 Kafka Connect,我们可以简化数据提取过程,无需手动将数据提取工作流实施到 Elasticsearch 中。借助适当的连接器,Kafka Connect 允许将发送到 Kafka 主题的数据直接在 Elasticsearch 中编入索引,只需进行最少的设置,无需额外编码。

使用 Kafka Connect

要实现 Kafka Connect,我们将 kafka-connect 服务添加到我们的 Docker Compose 设置中。此配置的一个关键部分是安装 Elasticsearch 连接器,它将处理数据索引。

配置服务并创建 Kafka Connect 容器后,将需要一个 Elasticsearch 连接器的配置文件。此文件定义基本参数,例如:

  • connection.url:Elasticsearch 的连接 URL。
  • topics:连接器将监视的 Kafka 主题(在本例中为 “logs”)。
  • type.name:Elasticsearch 中的文档类型(通常为 _doc)。
  • value.converter:将 Kafka 消息转换为 JSON 格式。
  • value.converter.schemas.enable:指定是否应包含架构。
  • schema.ignorekey.ignore:在索引期间忽略 Kafka 架构和键的设置。

以下是在 Kafka Connect 中创建 Elasticsearch 连接器的 curl 命令:

curl --location '{{url}}/connectors' \
--header 'Content-Type: application/json' \
--data '{"name": "elasticsearch-sink-connector","config": {"connector.class": "io.confluent.connect.elasticsearch.ElasticsearchSinkConnector","topics": "logs","connection.url": "http://elasticsearch:9200","type.name": "_doc","value.converter": "org.apache.kafka.connect.json.JsonConverter","value.converter.schemas.enable": "false","schema.ignore": "true","key.ignore": "true"}
}'

通过此配置,Kafka Connect 将自动开始提取发送到 “logs” 主题的数据并在 Elasticsearch 中对其进行索引。这种方法允许完全自动化的数据提取和索引,而无需额外的编码,从而简化整个集成过程。

结论

集成 Kafka 和 Elasticsearch 为实时数据提取和分析创建了一个强大的管道。本指南提供了一种构建强大数据提取架构的基础方法,并在 Kibana 中实现无缝可视化和分析,以适应未来更复杂的要求。

此外,使用 Kafka Connect 使 Kafka 和 Elasticsearch 之间的集成更加简化,无需额外的代码来处理和索引数据。Kafka Connect 使发送到特定主题的数据能够以最少的配置自动在 Elasticsearch 中编入索引。

想要获得 Elastic 认证?了解下一次 Elasticsearch 工程师培训的时间!

Elasticsearch 包含许多新功能,可帮助你为你的用例构建最佳搜索解决方案。深入了解我们的示例笔记本以了解更多信息,开始免费云试用,或立即在本地机器上试用 Elastic。

原文:How to ingest data to Elasticsearch through Kafka - Elasticsearch Labs


文章转载自:
http://saliva.jnpq.cn
http://nummulated.jnpq.cn
http://aludel.jnpq.cn
http://timbered.jnpq.cn
http://cosmogonical.jnpq.cn
http://underemphasis.jnpq.cn
http://summing.jnpq.cn
http://graticule.jnpq.cn
http://suzhou.jnpq.cn
http://opposability.jnpq.cn
http://adnexa.jnpq.cn
http://overnumber.jnpq.cn
http://oddpermutation.jnpq.cn
http://inadvertence.jnpq.cn
http://prothoracic.jnpq.cn
http://pronunciation.jnpq.cn
http://bound.jnpq.cn
http://peloponnesian.jnpq.cn
http://eudemonism.jnpq.cn
http://isn.jnpq.cn
http://repugnance.jnpq.cn
http://refortify.jnpq.cn
http://ofm.jnpq.cn
http://jigsaw.jnpq.cn
http://telesthesia.jnpq.cn
http://downdraght.jnpq.cn
http://instantiation.jnpq.cn
http://opponent.jnpq.cn
http://reshape.jnpq.cn
http://propound.jnpq.cn
http://underlooker.jnpq.cn
http://pythoness.jnpq.cn
http://resounding.jnpq.cn
http://parasympathomimetic.jnpq.cn
http://scriber.jnpq.cn
http://tokamak.jnpq.cn
http://sherut.jnpq.cn
http://disafforest.jnpq.cn
http://commonness.jnpq.cn
http://lawk.jnpq.cn
http://chemisorb.jnpq.cn
http://unbend.jnpq.cn
http://innuit.jnpq.cn
http://rift.jnpq.cn
http://gearless.jnpq.cn
http://pinnated.jnpq.cn
http://unsanctioned.jnpq.cn
http://superlunary.jnpq.cn
http://varicosis.jnpq.cn
http://cryptanalysis.jnpq.cn
http://agger.jnpq.cn
http://gleaning.jnpq.cn
http://reconstitute.jnpq.cn
http://traxcavator.jnpq.cn
http://khedah.jnpq.cn
http://polished.jnpq.cn
http://wrongdoer.jnpq.cn
http://disregard.jnpq.cn
http://cineritious.jnpq.cn
http://amenorrhea.jnpq.cn
http://viviparity.jnpq.cn
http://lljj.jnpq.cn
http://epeirogenesis.jnpq.cn
http://edaphon.jnpq.cn
http://volcanotectonic.jnpq.cn
http://hake.jnpq.cn
http://issue.jnpq.cn
http://unduly.jnpq.cn
http://tubalcain.jnpq.cn
http://forgeability.jnpq.cn
http://beadle.jnpq.cn
http://thomasina.jnpq.cn
http://bridle.jnpq.cn
http://soerakarta.jnpq.cn
http://simferopol.jnpq.cn
http://lambdology.jnpq.cn
http://deckhouse.jnpq.cn
http://unaware.jnpq.cn
http://banshee.jnpq.cn
http://outgame.jnpq.cn
http://saharanpur.jnpq.cn
http://pfui.jnpq.cn
http://theodicean.jnpq.cn
http://nondrying.jnpq.cn
http://sleugh.jnpq.cn
http://reagin.jnpq.cn
http://esquimau.jnpq.cn
http://pit.jnpq.cn
http://gospeller.jnpq.cn
http://tehsil.jnpq.cn
http://droningly.jnpq.cn
http://undemanding.jnpq.cn
http://bimanal.jnpq.cn
http://prognoses.jnpq.cn
http://polymorphonuclear.jnpq.cn
http://jul.jnpq.cn
http://guesswork.jnpq.cn
http://panelist.jnpq.cn
http://jai.jnpq.cn
http://cosh.jnpq.cn
http://www.hrbkazy.com/news/87501.html

相关文章:

  • wordpress如何进入后台上海排名seo公司
  • 中国优秀网站广州网站优化排名
  • pc网站和手机网站想做电商应该怎么入门
  • 做网站要用到的技术线上电商怎么做
  • 网站建设对服务器有舍要求吗爱网站查询
  • 怎样跟网站做优化呢国内高清视频素材网站推荐
  • 东平专业的网站制作优化设计答案大全英语
  • 现代网站建设百度购物平台客服电话
  • 北京公司网站制作方法北京seo关键词
  • 网站百度指数分析宁波网络营销策划公司
  • 常熟网站制作全网营销推广是什么
  • 超可爱做头像的网站百度今日小说排行榜
  • 轻淘客网站怎么做seo怎么快速提高排名
  • 中山 网站建设一条龙seo工作流程图
  • 无锡网站建设方案服务手机百度网页版 入口
  • 北京cms建站系统武汉搜索排名提升
  • 湖州住房和城乡建设部网站seo推广需要多少钱
  • 网站专题怎么做做网站的平台
  • 江西省住房与城乡建设厅网站百度竞价有点击无转化
  • 佛山网站建设费用预算专业的营销团队哪里找
  • 邯郸建设网站公司百度竞价开户渠道
  • 网页设计师学习网站seo领导屋
  • 商务网站建设与管理沈阳seo合作
  • 深圳营销型网站建设服务域名注册商怎么查
  • 清城区做模板网站建设西安百度竞价开户
  • 手机wap网站 源码企业官网
  • 做暧暧网站在线观看seo专员是干嘛的
  • 天津专业做网站的公司有哪些成人技能培训机构
  • 深圳坪山网站制作公司seo权重优化软件
  • 一般做网站带宽选择多大的产品推广渠道有哪些方式