IBM Active Memory Expansion 是从POWER7开始支持的一项新的内存虚拟技术。它通过压缩in-memory data的方法,更加有效的利用内存。AME通过内存数据压缩的方法,在已有内存的基础上,能够为一台服务器开辟更多的LPAR,或者更加提高LPAR的性能。是更有效利用内存的很好的途径。
2024-03-01 08:12:53 27KB
1
ARCH(0,1)模型参数中位无偏估计的渐近展开,王德辉,内藤贯太,本文给出ARCH(0,1)模型参数中位无偏估的Edgeworth展开,并应用此结果,给出了检验ARCH模型的方法。能过模拟可以看出,此方法是可行的。
2024-02-25 22:52:29 410KB 首发论文
1
本内斯蒂关于语音增强的著作,值得大家下载下来仔细研究
2023-08-11 16:29:35 1.4MB 本内斯蒂
1
当我们想要找到多项式 (x1 + x2 + ... + xl)^n 其中 l>=1 的展开幂以及系数时。 该功能赋予权力以可能的结果。 例如(a+b+c)^3=a^3+b^3+c^3+3*a^2*b+3*a^2*c+3*b^2*a+3*b^ 2*c+3*c^2*a+3*c^2*b+6*a*b*c 使用该函数,我们输入标准尺寸=3; normPower=3; [powI coefI]=multiNomial(normPower,normSize);
2023-03-13 13:59:49 2KB matlab
1
具有 LN(mu,sigma) 的任何不确定参数 X 的“n”阶系数可以分析计算为: ai_a=sigma^n*exp(mu+sigma^2/2)/(n!) 代码使用Matlab符号积分计算系数
2023-01-12 16:42:25 1KB matlab
1
LMD算法利用极值平均、边界局部特征尺度延拓、HDJ极值延拓法、基于ISBM延拓、平行延拓法等对数据拓展,降低端点效应。
即使对于有经验的用户,制定和重新制定可靠的文本查询也已被认为是信息检索(IR)中的一项艰巨任务。 大多数现有的查询扩展方法,尤其是基于隐式相关性反馈的查询扩展方法,都利用用户的历史交互数据,例如单击,滚动和查看文档的时间,来推导完善的查询模型。 进一步期望,如果我们可以通过直接在术语级别捕获用户当前的交互来实时挖掘用户的潜在查询意图,则用户的搜索体验将得到极大改善。 在本文中,我们提出了一种基于实时眼动跟踪的查询扩展方法,该方法能够:(1)利用眼动跟踪技术自动捕获用户正在查看的术语; (2)根据眼睛跟踪项并使用潜在狄利克雷分配(LDA)方法得出用户的潜在意图。 进行了系统的用户研究,实验结果证明了我们提出的方法的有效性。
2022-11-22 00:27:23 1.42MB Eye Tracking Query Expansion
1
官方离线安装包,测试可用。使用rpm -ivh [rpm完整包名] 进行安装
2022-01-03 17:01:28 8KB rpm
Alpha-Expansion方法应用 代码.zip
2021-11-26 17:10:28 146KB Alpha
1
连接ONENET所需的OBJECT和RESOURCR---IPSO SmartObject Guideline
2021-08-13 16:35:50 489KB ONENET LWM2M
1