数据集 将下载到datasets文件夹。 所有*.csv文件都不会被推送到存储库。 成员:顾云、黄帅、耿世杰 文件夹:
2021-12-28 11:02:34 44.21MB Java
1
tianchi_yidong 天池移动推荐算法 运行环境 python2.7 提取了约180维特征,包括: 用户特征,商品特征,类目特征,用户商品特征,用户类目特征,商品类目特征等 分别运行: data_split.py feature_extract.py gen_data.py xgb.py forfast文件夹下run1,run2,run3的python文件是吧gen_data.py中训练集,验证集和测试集的分割分成3个程序,这样在多核电脑中可以分别运行三个文件以更快切分数据集 feature_important
2021-12-28 10:42:08 564KB Python
1
OCR_TIANCHI_ICPR 用法: 从下载训练有素的模型。 在single_ctpn中运行text_detector.ipynb。 样品: 结果: $锚点:(x1,y1,x2,y2,x3,y3,x4,y4)$每个文本区域的$将存储在结果文件夹中,其中txt文件的名称是相应的图像文件。
2021-12-10 14:36:34 134.12MB JupyterNotebook
1
瑞金医院MMC人工智能辅助内置知识图谱大赛(第一赛季) :warning:由于可能存在的版权问题,请自行联系大赛主办方索要数据,在问题中索要数据的请求将不再回复,谢谢! :light_bulb: github对.ipynb渲染效果不是很好,代码建议通过查看。 复赛代码见 背景 本次大赛逐步通过糖尿病相关的教科书,研究论文来做糖尿病文献挖掘和发展糖尿病知识图谱。 初赛赛题在学术论文和临床指南的基础上,做实体的标注。实体类别共十五类。 类别名称和实体定义: 实体类型 标注名称 说明 疾病名称 疾病 如I型糖尿病 病因 原因 疾病的成因,危险因素及机制。某些“糖尿病是由于糖尿病抵抗导致”,胰岛素抵抗是属于病因 临床表现 症状 包
1
TianChi_loadDefault 大家好,我是coggle开源小组成员庐州小火锅,这篇文章将介绍天池学习赛贷款违约预测的TOP6单模方案(具体介绍见我的csdn文章: ://blog.csdn.net/ )。现附上比赛链接天池学习赛贷款违约预测。 。核心代码见模型文件夹下的ipynb文件,user_data,功能文件夹负责放置中间文件,生成结果见user_data中的xgb.csv。
2021-11-30 18:33:38 476KB 系统开源
1
TianChi Diabetes Game 大赛网址: Introduction 天池精准医疗大赛,其分为三个阶段初赛、复赛和决赛。初赛的题目是针对2型糖尿病的回归问题,根据受检者的体检数据和临床信息对血糖值进行预测。复赛的题目是针对妊娠糖尿病的二分类问题,通过体检信息和基因信息预测出是否患有妊娠糖尿病。决赛是在现场进行答辩。 本人是积极向上团队中的队员,积极向上团队再精准医疗大赛中取得了初赛top-11和复赛top-6的成绩。当前代码仓库仅仅包含了本人参赛中的思路和代码,当公布初赛结果时,我发现初赛预测结果比我们提交的效果更好,后来也没有仔细分析,仅仅把当时的代码稍微整理一下。团队复赛最终提交版的天池社区技术圈:。 Path TianChi-Diabetes | |-- preliminary:初赛代码 | |-- repecharge:复赛代码 Preliminary 预处理:矩阵补全
2021-11-06 12:05:06 3.6MB Python
1
ICPR2018:网络图像的文本识别 / 网络图像的文本检测 TODO: 根据描述文件在图片中圈出所有文本的位置,效果图如下 将描述文件转成pascal格式的xml文件 训练YOLO或者SSD模型 训练OCR模型或直接调用OCR库
2021-11-05 16:01:10 41KB python aliyun tianchi Python
1
TIanChi_Traffic_Competition 阿里天池智慧交通预测挑战赛 #@创建于2017-9 #@Author:lieying #@School:USTB #@E-mail: 复赛:Top7 /1716队 #---- 此算法为智慧交通预测挑战赛复赛程序 1、先运行sub_handle.py生成提交样本,然后运行link_top_process.py生成道路基本信息。 (@@@最重要的的是get_feat_XGBmodel.py这个文件用于提取特征,写了相应的函数,直接调用。) 2、先运行get_feat.py进行划分数据集 3、运行get_feat_2016_7.py和get_feat_2017_3.py进行提取2016年的七月和2017年的3月 4、然后运行main.py进行提取和去除噪点。然后送入XGBoost和lightgbm模型进行训练得到四个模型的结果,然后融合处理
2021-10-24 15:12:58 30KB Python
1
天池_大数据 阿里天池大数据竞赛—全国社会保险大数据应用创新大赛原始码(2017/09/18)
2021-10-04 10:41:44 5.42MB 系统开源
1
实验环境 CUDA版本:11.0驱动程序版本:450.80.02 GPU:TITAN XP Python:3.7.9 pytorch:1.7.0操作系统:ubuntu 20.04 安装依赖包 pip install -r requirements.txt 解决方案及算法说明 数据预处理:数据清洗(剔除中文,非英文,非数字符号) 文本截断:通过对各任务句子长度的分析,选择句子长度256作为截断标准,不足补0 数据输入 由于任务二和任务三存在轴向的类别不均衡问题,因此训练集和验证集的划分采用分层的KFold交叉验证。由于需要多任务学习,因此模型的输入增加了任务标识dataset_ids。因此模型的输入其中任务一由于是句子对任务,token = [cls +句子1 + sep +句子2],其余两个任务token = [cls +句子+ sep]表示为(token_ids,segment_id,
2021-09-04 22:31:20 85KB Python
1