热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

org.nd4j.linalg.api.ndarray.INDArray.rdivi()方法的使用及代码示例

本文整理了Java中org.nd4j.linalg.api.ndarray.INDArray.rdivi()方法的一些代码示例,展示了INDArray.rd

本文整理了Java中org.nd4j.linalg.api.ndarray.INDArray.rdivi()方法的一些代码示例,展示了INDArray.rdivi()的具体用法。这些代码示例主要来源于Github/Stackoverflow/Maven等平台,是从一些精选项目中提取出来的代码,具有较强的参考意义,能在一定程度帮忙到你。INDArray.rdivi()方法的具体详情如下:
包路径:org.nd4j.linalg.api.ndarray.INDArray
类名称:INDArray
方法名:rdivi

INDArray.rdivi介绍

[英]In place reverse division - i.e., (n / thisArrayValues)
[中]就地反除法-即(n/此阵列值)

代码示例

代码示例来源:origin: deeplearning4j/nd4j

/**
* Reverse division
*
* @param other the matrix to divide from
* @return
*/
@Override
public INDArray rdiv(INDArray other) {
return dup().rdivi(other);
}

代码示例来源:origin: deeplearning4j/nd4j

/**
* Reverse division
*
* @param other the matrix to subtract from
* @param result the result ndarray
* @return
*/
@Override
public INDArray rdiv(INDArray other, INDArray result) {
return dup().rdivi(other, result);
}

代码示例来源:origin: deeplearning4j/nd4j

@Override
public IComplexNDArray rdiv(IComplexNumber n, IComplexNDArray result) {
return dup().rdivi(n, result);
}

代码示例来源:origin: deeplearning4j/nd4j

@Override
public IComplexNDArray rdiv(IComplexNumber n) {
return dup().rdivi(n);
}

代码示例来源:origin: deeplearning4j/nd4j

/**
* Gets feature specific learning rates
* Adagrad keeps a history of gradients being passed in.
* Note that each gradient passed in becomes adapted over time, hence
* the opName adagrad
*
* @param gradient the gradient to get learning rates for
* @param iteration
* @return the feature specific learning rates
*/
public INDArray getGradient(INDArray gradient, int iteration) {
if (historicalGradient == null)
throw new IllegalStateException("Updater has not been initialized with view state");
historicalGradient.addi(gradient.mul(gradient));
INDArray sqrtHistory = sqrt(historicalGradient.dup(gradientReshapeOrder), false).addi(epsilon);
// lr * gradient / (sqrt(sumSquaredGradients) + epsilon)
INDArray ret = gradient.muli(sqrtHistory.rdivi(learningRate));
numIterations++;
return ret;
}

代码示例来源:origin: deeplearning4j/nd4j

/**
* Gets feature specific learning rates
* Adagrad keeps a history of gradients being passed in.
* Note that each gradient passed in becomes adapted over time, hence the opName adagrad
*
* @param gradient the gradient to get learning rates for
* @param iteration
*/
@Override
public void applyUpdater(INDArray gradient, int iteration, int epoch) {
if (historicalGradient == null)
throw new IllegalStateException("Updater has not been initialized with view state");
double learningRate = config.getLearningRate(iteration, epoch);
double epsilon = config.getEpsilon();
historicalGradient.addi(gradient.mul(gradient));
INDArray sqrtHistory = sqrt(historicalGradient.dup(gradientReshapeOrder), false).addi(epsilon);
// lr * gradient / (sqrt(sumSquaredGradients) + epsilon)
gradient.muli(sqrtHistory.rdivi(learningRate));
}
}

代码示例来源:origin: deeplearning4j/nd4j

public INDArray getGradient(INDArray gradient, int slice, int[] shape) {
boolean historicalInitialized = false;
INDArray sqrtHistory;
if (this.historicalGradient == null) {
this.historicalGradient = Nd4j.zeros(shape).add(epsilon);
historicalInitialized = true;
} else if (!this.historicalGradient.isVector()
&& this.historicalGradient.slice(slice).length() != gradient.length())
throw new IllegalArgumentException("Illegal gradient");
if (historicalGradient.isVector())
sqrtHistory = sqrt(historicalGradient);
else
sqrtHistory = !historicalInitialized ? sqrt(historicalGradient.slice(slice)) : historicalGradient;
INDArray learningRates;
try {
learningRates = sqrtHistory.rdivi(learningRate);
} catch (ArithmeticException ae) {
learningRates = sqrtHistory.rdivi(learningRate + epsilon);
}
if (gradient.length() != learningRates.length())
gradient.muli(learningRates.slice(slice));
else
gradient.muli(learningRates);
this.historicalGradient.slice(slice).addi(gradient.mul(gradient));
numIterations++;
//ensure no zeros
return gradient;
}

代码示例来源:origin: deeplearning4j/nd4j

private INDArray scoreArray(INDArray labels, INDArray preOutput, IActivation activationFn, INDArray mask) {
if (labels.size(1) != preOutput.size(1)) {
throw new IllegalArgumentException(
"Labels array numColumns (size(1) = " + labels.size(1) + ") does not match output layer"
+ " number of outputs (nOut = " + preOutput.size(1) + ") ");
}
INDArray output = activationFn.getActivation(preOutput.dup(), true);
// Clip output and labels to be between Nd4j.EPS_THREsHOLD and 1, i.e. a valid non-zero probability
output = Transforms.min(Transforms.max(output, Nd4j.EPS_THRESHOLD, false), 1, false);
labels = Transforms.min(Transforms.max(labels, Nd4j.EPS_THRESHOLD, true), 1, false);
INDArray logRatio = Transforms.log(output.rdivi(labels), false);
INDArray scoreArr = logRatio.muli(labels);
if (mask != null) {
LossUtil.applyMask(scoreArr, mask);
}
return scoreArr;
}

代码示例来源:origin: deeplearning4j/nd4j

gradient.rdivi(m).muli(alphat);

代码示例来源:origin: deeplearning4j/nd4j

INDArray dLda = output.rdivi(labels).negi();

代码示例来源:origin: deeplearning4j/nd4j

/**
* in place (element wise) division of two matrices
*
* @param other the second ndarray to divide
* @param result the result ndarray
* @return the result of the divide
*/
@Override
public INDArray divi(INDArray other, INDArray result) {
if (other.isScalar()) {
return divi(other.getDouble(0), result);
}
if (isScalar()) {
return other.rdivi(getDouble(0), result);
}
if(!Shape.shapeEquals(this.shape(),other.shape())) {
int[] broadcastDimensiOns= Shape.getBroadcastDimensions(this.shape(),other.shape());
Nd4j.getExecutioner().exec(new BroadcastDivOp(this,other,result,broadcastDimensions),broadcastDimensions);
return result;
}
LinAlgExceptions.assertSameShape(other, result);
Nd4j.getExecutioner().exec(new OldDivOp(this, other, result, length()));
if (Nd4j.ENFORCE_NUMERICAL_STABILITY)
Nd4j.clearNans(result);
return result;
}

代码示例来源:origin: improbable-research/keanu

@Override
public DoubleTensor reciprocalInPlace() {
tensor.rdivi(1.0);
return this;
}

代码示例来源:origin: org.nd4j/nd4j-api

/**
* Reverse division
*
* @param other the matrix to divide from
* @return
*/
@Override
public INDArray rdiv(INDArray other) {
return dup().rdivi(other);
}

代码示例来源:origin: org.nd4j/nd4j-api

/**
* Reverse division
*
* @param other the matrix to subtract from
* @param result the result ndarray
* @return
*/
@Override
public INDArray rdiv(INDArray other, INDArray result) {
return dup().rdivi(other, result);
}

代码示例来源:origin: org.nd4j/nd4j-api

@Override
public IComplexNDArray rdiv(IComplexNumber n) {
return dup().rdivi(n);
}

代码示例来源:origin: org.nd4j/nd4j-api

@Override
public IComplexNDArray rdiv(IComplexNumber n, IComplexNDArray result) {
return dup().rdivi(n, result);
}

代码示例来源:origin: org.deeplearning4j/deeplearning4j-nn

@Override
public INDArray generateAtMean(INDArray preOutDistributionParams) {
//Input: gamma = log(lambda) -> lambda = exp(gamma)
//Mean for exponential distribution: 1/lambda
INDArray gamma = activationFn.getActivation(preOutDistributionParams.dup(), false);
INDArray lambda = Transforms.exp(gamma, true);
return lambda.rdivi(1.0); //mean = 1.0 / lambda
}

代码示例来源:origin: org.deeplearning4j/deeplearning4j-cuda-9.2

@Override
public INDArray getVarCache() {
INDArray ret;
if(Nd4j.dataType() == DataBuffer.Type.HALF){
INDArray vc = varCache.convertToHalfs();
ret = vc.mul(vc).rdivi(1.0).subi(eps);
} else {
ret = varCache.mul(varCache).rdivi(1.0).subi(eps);
}
if(Nd4j.dataType() == DataBuffer.Type.HALF){
//Buffer is FP32
return ret.convertToHalfs();
}
return ret;
}

代码示例来源:origin: org.nd4j/nd4j-api

/**
* Gets feature specific learning rates
* Adagrad keeps a history of gradients being passed in.
* Note that each gradient passed in becomes adapted over time, hence the name adagrad
*
* @param gradient the gradient to get learning rates for
* @param iteration
*/
@Override
public void applyUpdater(INDArray gradient, int iteration) {
if (historicalGradient == null)
throw new IllegalStateException("Updater has not been initialized with view state");
double learningRate = config.getLearningRate();
double epsilon = config.getEpsilon();
historicalGradient.addi(gradient.mul(gradient));
INDArray sqrtHistory = sqrt(historicalGradient.dup(gradientReshapeOrder), false).addi(epsilon);
// lr * gradient / (sqrt(sumSquaredGradients) + epsilon)
gradient.muli(sqrtHistory.rdivi(learningRate));
}
}

代码示例来源:origin: org.nd4j/nd4j-api

private INDArray scoreArray(INDArray labels, INDArray preOutput, IActivation activationFn, INDArray mask) {
if (labels.size(1) != preOutput.size(1)) {
throw new IllegalArgumentException("Labels array numColumns (size(1) = " + labels.size(1)
+ ") does not match output layer" + " number of outputs (nOut = " + preOutput.size(1)
+ ") ");

}
INDArray output = activationFn.getActivation(preOutput.dup(), true);
// Clip output and labels to be between Nd4j.EPS_THREsHOLD and 1, i.e. a valid non-zero probability
output = Transforms.min(Transforms.max(output, Nd4j.EPS_THRESHOLD, false), 1, false);
labels = Transforms.min(Transforms.max(labels, Nd4j.EPS_THRESHOLD, true), 1, false);
INDArray logRatio = Transforms.log(output.rdivi(labels), false);
INDArray scoreArr = logRatio.muli(labels);
if (mask != null) {
LossUtil.applyMask(scoreArr, mask);
}
return scoreArr;
}

推荐阅读
  • Google Play推出全新的应用内评价API,帮助开发者获取更多优质用户反馈。用户每天在Google Play上发表数百万条评论,这有助于开发者了解用户喜好和改进需求。开发者可以选择在适当的时间请求用户撰写评论,以获得全面而有用的反馈。全新应用内评价功能让用户无需返回应用详情页面即可发表评论,提升用户体验。 ... [详细]
  • 本文介绍了闭包的定义和运转机制,重点解释了闭包如何能够接触外部函数的作用域中的变量。通过词法作用域的查找规则,闭包可以访问外部函数的作用域。同时还提到了闭包的作用和影响。 ... [详细]
  • android listview OnItemClickListener失效原因
    最近在做listview时发现OnItemClickListener失效的问题,经过查找发现是因为button的原因。不仅listitem中存在button会影响OnItemClickListener事件的失效,还会导致单击后listview每个item的背景改变,使得item中的所有有关焦点的事件都失效。本文给出了一个范例来说明这种情况,并提供了解决方法。 ... [详细]
  • 如何用UE4制作2D游戏文档——计算篇
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了如何用UE4制作2D游戏文档——计算篇相关的知识,希望对你有一定的参考价值。 ... [详细]
  • 使用在线工具jsonschema2pojo根据json生成java对象
    本文介绍了使用在线工具jsonschema2pojo根据json生成java对象的方法。通过该工具,用户只需将json字符串复制到输入框中,即可自动将其转换成java对象。该工具还能解析列表式的json数据,并将嵌套在内层的对象也解析出来。本文以请求github的api为例,展示了使用该工具的步骤和效果。 ... [详细]
  • XML介绍与使用的概述及标签规则
    本文介绍了XML的基本概念和用途,包括XML的可扩展性和标签的自定义特性。同时还详细解释了XML标签的规则,包括标签的尖括号和合法标识符的组成,标签必须成对出现的原则以及特殊标签的使用方法。通过本文的阅读,读者可以对XML的基本知识有一个全面的了解。 ... [详细]
  • 自动轮播,反转播放的ViewPagerAdapter的使用方法和效果展示
    本文介绍了如何使用自动轮播、反转播放的ViewPagerAdapter,并展示了其效果。该ViewPagerAdapter支持无限循环、触摸暂停、切换缩放等功能。同时提供了使用GIF.gif的示例和github地址。通过LoopFragmentPagerAdapter类的getActualCount、getActualItem和getActualPagerTitle方法可以实现自定义的循环效果和标题展示。 ... [详细]
  • CF:3D City Model(小思维)问题解析和代码实现
    本文通过解析CF:3D City Model问题,介绍了问题的背景和要求,并给出了相应的代码实现。该问题涉及到在一个矩形的网格上建造城市的情景,每个网格单元可以作为建筑的基础,建筑由多个立方体叠加而成。文章详细讲解了问题的解决思路,并给出了相应的代码实现供读者参考。 ... [详细]
  • Nginx使用(server参数配置)
    本文介绍了Nginx的使用,重点讲解了server参数配置,包括端口号、主机名、根目录等内容。同时,还介绍了Nginx的反向代理功能。 ... [详细]
  • Java实战之电影在线观看系统的实现
    本文介绍了Java实战之电影在线观看系统的实现过程。首先对项目进行了简述,然后展示了系统的效果图。接着介绍了系统的核心代码,包括后台用户管理控制器、电影管理控制器和前台电影控制器。最后对项目的环境配置和使用的技术进行了说明,包括JSP、Spring、SpringMVC、MyBatis、html、css、JavaScript、JQuery、Ajax、layui和maven等。 ... [详细]
  • 目录实现效果:实现环境实现方法一:基本思路主要代码JavaScript代码总结方法二主要代码总结方法三基本思路主要代码JavaScriptHTML总结实 ... [详细]
  • 原文地址:https:www.cnblogs.combaoyipSpringBoot_YML.html1.在springboot中,有两种配置文件,一种 ... [详细]
  • 本文详细介绍了Spring的JdbcTemplate的使用方法,包括执行存储过程、存储函数的call()方法,执行任何SQL语句的execute()方法,单个更新和批量更新的update()和batchUpdate()方法,以及单查和列表查询的query()和queryForXXX()方法。提供了经过测试的API供使用。 ... [详细]
  • Python爬虫中使用正则表达式的方法和注意事项
    本文介绍了在Python爬虫中使用正则表达式的方法和注意事项。首先解释了爬虫的四个主要步骤,并强调了正则表达式在数据处理中的重要性。然后详细介绍了正则表达式的概念和用法,包括检索、替换和过滤文本的功能。同时提到了re模块是Python内置的用于处理正则表达式的模块,并给出了使用正则表达式时需要注意的特殊字符转义和原始字符串的用法。通过本文的学习,读者可以掌握在Python爬虫中使用正则表达式的技巧和方法。 ... [详细]
  • 使用圣杯布局模式实现网站首页的内容布局
    本文介绍了使用圣杯布局模式实现网站首页的内容布局的方法,包括HTML部分代码和实例。同时还提供了公司新闻、最新产品、关于我们、联系我们等页面的布局示例。商品展示区包括了车里子和农家生态土鸡蛋等产品的价格信息。 ... [详细]
author-avatar
王丹__-划_402
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有