模拟行为日志数据的生成
2022-05-25 17:15:40 13.5MB 日志
1
模拟行为日志数据的生成
2022-05-10 09:07:08 13.5MB 日志
1
本次要实践的数据日志来源于国内某技术学习论坛,该论坛由某培训机构主办,汇聚了众多技术学习者,每天都有人发帖、回帖。至此,我们通过Python网络爬虫手段进行数据抓取,将我们网站数据(2013-05-30,2013-05-31)保存为两个日志文件,由于文件大小超出我们一般的分析工具处理的范围,故借助Hadoop来完成本次的实践。 使用python对原始数据进行清洗,以便后续进行统计分析; 使用Hive对清洗后的数据进行统计分析; 使用Sqoop把Hive产生的统计结果导出到mysql中; 两个日志文件,一共有200MB,符合大数据量级,可以作为推荐系统数据集和hadoop测试集。
2022-05-09 19:14:04 13.7MB 数据分析 hadoop 文档资料 python
通过java模拟生产环境的日志,flume监控指定目录,采集日志推送到kafka。具体内容可参考 “基于CDH5的flume-kafka对接”这篇
2022-04-10 16:13:10 14KB flume-kafka
1
今日给大家介绍一下java 日志的数据脱敏的实现方法,可以更好的保护数据的安全,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
2022-04-05 17:40:12 65KB java 日志数据脱敏 java 数据脱敏
1
从任意非结构化日志数据中导出指标。 关于格罗克 是一种将cr脚的非结构化日志数据解析为结构化和可查询内容的工具。 Grok在大量使用,以提供日志数据作为输入。 Grok附带了大约120种预定义模式,用于syslog日志,apache和其他Web服务器日志,mysql日志等。使用自定义模式扩展Grok很容易。 grok_exporter旨在将Grok从移植到监视。 目标是使用Grok模式从任意日志文件中提取Prometheus指标。 如何运行示例 从页面下载grok_exporter-$ARCH.zip于您的操作系统的grok_exporter-$ARCH.zip ,解压缩存档cd grok_exporter-$ARCH ,然后运行 ./grok_exporter -config ./example/config.yml 示例日志文件exim-rejected-RCPT-example
2022-03-23 13:55:48 3.06MB Go
1
Web日志数据挖掘技术及应用,喜欢数据挖掘的可以下来看看哦
2022-03-19 14:24:52 842KB WEB 日志 数据挖掘
1
基于Logstash的日志数据采集和ELK可视化海量日志分析平台实战(全套视频+课件+代码+讲义+工具),具体内容包括: 01 Logstash的架构及运行流程 02 Logstash的数据采集案例(一) 03 Logstash的数据采集案例(二) 04 Kibana的介绍部署及功能模块讲解 05 ELK企业常见四种架构及应用 06 ELK综合案例-案例数据的导入 07 ELK综合案例-Logstash读取Mysql数据到ES 08 ELK综合案例-常见业务指标分析 09 ELK综合案例-Kibana生成报表展示
2022-02-22 19:10:11 404.64MB 大数据 ELK Kibana Logstash
大数据课程——Hadoop集群程序设计与开发,教师版,提供教学大纲、教案、教学设计、实训文档等,课程内容包含教学准备环境、软件安装、作业、教学文档、演示视频,花费巨额时间亲自制作,下载后可私信提供上述所有教学资料,可按照ppt以及教学文档直接教授