spark+hadoop大数据处理学习笔记
2024-07-01 20:48:27 936B hadoop spark
1
微信小程序毕业设计基于ssm框架+微信小程序的高校体育场管理系统项目源码.zip 个人经导师指导并认可通过的高分设计项目,评审分98分。主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者,也可作为课程设计、期末大作业。 项目介绍: 高校体育场管理系统项目, 前端为微信小程序,后端接口为ssm框架实现,项目包含源码、数据库 毕业设计基于ssm框架+微信小程序的高校体育场管理系统项目源码.zip 个人经导师指导并认可通过的高分设计项目,评审分98分。主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者,也可作为课程设计、期末大作业。 项目主要功能: 这是一个基于SSM框架和微信小程序的高校体育场管理系统,融合了Vue、IView、ThinkPHP、JavaScript、HTML、CSS和ECharts等技术。系统后端采用PHP编写,支持多种数据库和操作系统,适合初学者。它使用MySQL数据库,提供灵活高效的存储。功能包括二维码登录(管理员登录)、会员注册(学生和校外人员)、场地信息管理、预约申请、申请审核、在线支付、论坛交流和系统统计。通过微信小程序实现
2024-06-29 10:25:09 34.41MB 微信小程序
1
采用java技术构建的一个管理系统。整个开发过程首先对系统进行需求分析,得出系统的主要功能。接着对系统进行总体设计和详细设计。总体设计主要包括系统功能设计、系统总体结构设计、系统数据结构设计和系统安全设计等;详细设计主要包括系统数据库访问的实现,主要功能模块的具体实现,模块实现关键代码等。最后对系统进行功能测试,并对测试结果进行分析总结。 包括程序毕设程序源代码一份,数据库一份,完美运行。配置环境里面有说明。如有不会运行源代码私信。
2024-06-28 20:24:46 10MB 高校办公自动化系统
1
毕业设计: 计算机基于Cesium时空数据可视化后台Java SSM框架
2024-06-25 15:04:31 11.23MB 毕业设计 Cesium
1
支持spark集群下的pyspark环境生产tfrecord样本,可以使用常见的接口加载jar包对DataFrame数据进行格式转换,直接输出tfrecord文件到hdfs上。方便后续链路使用tensorflow来做进一步的样本加工和数据训练。支持spark 2.12版本。
2024-06-25 11:03:09 1.21MB tensorflow pyspark tfrecord
1
基于SSM(Spring + SpringMVC + MyBatis)实现的校园顺路代送微信小程序,为校园内的师生提供了一种便捷、高效的物品代送服务。以下是其主要功能描述: 用户注册与登录:用户可以通过手机号或校园邮箱进行注册和登录,确保信息安全和服务的个性化。 发布代送需求:用户可以在小程序上发布代送需求,包括起点、终点、物品描述、代送时间等信息,以便寻找顺路的代送者。 浏览与接单:代送者可以浏览当前所有的代送需求,并根据自己的行程和时间选择接单。接单后,系统会自动通知需求发布者。 实时位置共享:为了确保代送过程的透明和安全,系统支持实时位置共享功能,需求发布者和代送者都可以查看对方的实时位置。 支付与评价:代送完成后,需求发布者可以通过小程序进行支付,并对代送者的服务进行评价。评价将作为代送者的信誉参考。 消息通知与提醒:系统会实时推送代送状态更新、订单完成等消息通知,确保用户能够及时了解代送情况。 个人中心管理:用户可以在个人中心查看自己的代送记录、评价记录等信息,并进行相应的管理操作。 综上所述,基于SSM实现的校园顺路代送微信小程序通过发布代送需求、浏览接单、实时位置共享、支付评价等功能,为校园内的师生提供了一种方便、快捷、安全的物品代送服务。
2024-06-24 10:49:43 17.58MB 微信小程序
1
本资源中的源码都是经过本地编译过可运行的,下载后按照文档配置好环境就可以运行。资源项目的难度比较适中,内容都是经过助教老师审定过的,应该能够满足学习、使用需求,如果有需要的话可以放心下载使用。有任何问题也可以随时私信博主,博主会第一时间给您解答!!! 本资源中的源码都是经过本地编译过可运行的,下载后按照文档配置好环境就可以运行。资源项目的难度比较适中,内容都是经过助教老师审定过的,应该能够满足学习、使用需求,如果有需要的话可以放心下载使用。有任何问题也可以随时私信博主,博主会第一时间给您解答!!! 本资源中的源码都是经过本地编译过可运行的,下载后按照文档配置好环境就可以运行。资源项目的难度比较适中,内容都是经过助教老师审定过的,应该能够满足学习、使用需求,如果有需要的话可以放心下载使用。有任何问题也可以随时私信博主,博主会第一时间给您解答!!!
2024-06-24 10:13:36 36.22MB java 毕业设计 课程作业 springboot
在本作业中,我们主要探讨了如何配置IntelliJ IDEA环境以及使用Scala和Apache Spark实现PageRank算法。PageRank是Google早期用于网页排名的核心算法,它通过迭代计算每个网页的重要性,从而提供搜索引擎的搜索结果排序。 首先,我们需要搭建一个win10系统上的开发环境,包括安装Scala、Spark和Hadoop。完成环境搭建后,可以通过访问`http://127.0.0.1:4040/jobs/`来监控Spark作业的运行状态,确保环境配置成功。 接着,我们需要配置IntelliJ IDEA,这是一个强大的Java开发集成环境,也支持Scala等其他编程语言。配置IDEA主要包括安装Scala插件,设置Scala SDK,创建新的Scala项目,并配置Spark相关依赖。这样,我们就可以在IDEA中编写、编译和运行Scala代码。 PageRank算法是基于迭代的过程,它涉及到两个关键数据集:links和ranks。links数据集存储了页面之间的链接关系,例如(A, [B, C, D])表示页面A链接到B、C和D。而ranks数据集则记录了每个页面的PageRank值,初始时所有页面的PageRank值都设为1.0。 PageRank算法的主要步骤如下: 1. 初始化:将每个页面的PageRank值设为1.0。 2. 迭代计算:在每一轮迭代中,每个页面会将其PageRank值按照链接数量平均分配给相连的页面。假设页面p的PageRank值为PR(p),链接数为L(p),则p会给每个相邻页面贡献PR(p)/L(p)的值。 3. 更新PageRank:每个页面的新PageRank值由0.15的“随机跳跃”因子加上接收到的贡献值的0.85倍计算得出。这个公式保证了即使没有被其他页面链接的页面也能获得一定的PageRank值。 4. 迭代直到收敛:算法会重复上述步骤,通常在10轮迭代后,PageRank值会趋于稳定。 在给出的Scala代码中,我们创建了一个SparkConf对象,设置了应用程序名和主节点,然后创建了SparkContext实例。接着,我们使用Spark的parallelize方法创建了一个links的RDD,表示页面间的链接关系。初始ranks RDD中的PageRank值被设为1.0。接下来的for循环进行PageRank迭代计算,使用join、flatMap、reduceByKey等操作处理数据,最后将计算结果保存到"result"文件夹下。 运行结果会被保存在名为"part-000000"的文件中,这是Spark默认的输出格式,包含了每个页面及其对应的PageRank值。在IDEA环境下,可以直接查看这些输出结果,以便分析和验证PageRank算法的正确性。 总之,本作业涵盖了环境配置、Scala编程以及PageRank算法的实现,提供了从理论到实践的完整体验。通过这个过程,我们可以深入理解分布式计算的基本操作,以及PageRank算法如何评估网页的重要性。
2024-06-23 23:10:34 375KB windows scala spark hadoop
1
springboot+echarts做大数据展示 scrapy数据采集 spark数据分析处理 包含java项目,数据采集项目,spark处理代码,数据库文件,数据源文件,项目演示截图等等
2024-06-21 20:25:20 71.21MB 数据采集
1
spark-2.0.0-bin-hadoop2.7.tgz.zip 提示:先解压再使用,最外层是zip文件
2024-06-20 17:18:50 177.76MB spark
1