您可以使用标准的.NET重载:
open MathNet.Numerics.LinearAlgebra
type Sigmoid() = class end with
static member sigmoid (z:float) = 1.0/(1.0 + exp(-z))
static member sigmoid (z:Matrix<float>) = z.Map (fun x -> Sigmoid.sigmoid(x))
static member sigmoid (z:Vector<float>) = z.Map (fun x -> Sigmoid.sigmoid(x))
// Usage
let x = Sigmoid.sigmoid 4.3
let y = Sigmoid.sigmoid (matrix [[1.0; 2.0]; [3.0; 4.0]])
let z = Sigmoid.sigmoid (vector [1.0; 2.0])
// Results
val x : float = 0.9866130822
val y : Matrix<float> =
DenseMatrix 2x2-Double
0.731059 0.880797
0.952574 0.982014
val z : Vector<float> = seq [0.7310585786; 0.880797078]
由于重载决策在编译时做这不会影响性能。
标准.NET重载不满意吗?不想将该函数编码为成员?你想让它更通用(也接受float32)并可扩展到其他类型?
使用静态类型的限制:
type Sigmoid() = class end with
static member Sigmoid (_:Sigmoid, z:float ) = 1.0/(1.0 + exp(-z))
static member Sigmoid (_:Sigmoid, z:float32) = 1.0f/(1.0f + exp(-z))
let inline _sigmoid (s:'Sigmoid) (x:'T) :'T =
((^T or ^Sigmoid) : (static member Sigmoid : 'Sigmoid * 'T -> 'T) (s, x))
let inline sigmoid x = _sigmoid (Sigmoid()) x
type Sigmoid with
static member inline Sigmoid (_:Sigmoid, z:Matrix<'T>) = z.Map (fun x -> sigmoid x)
static member inline Sigmoid (_:Sigmoid, z:Vector<'T>) = z.Map (fun x -> sigmoid x)
// Usage
let x = sigmoid 4.3
let y = sigmoid (matrix [[ 1.0; 2.0 ];[ 3.0; 4.0 ]])
let z = sigmoid (vector [ 1.0; 2.0 ])
let x' = sigmoid 4.3f
let y' = sigmoid (matrix [[1.0f; 2.0f];[ 3.0f; 4.0f]])
let z' = sigmoid (vector [ 1.0f; 2.0f])
UPDATE
注意@TheInnerLight指出在评论认为,为您的特定sigmoid
功能,您还可以这样写:
let inline sigmoid z =
LanguagePrimitives.GenericOne/(LanguagePrimitives.GenericOne + exp(-z))
这将工作于float
和float32
这最终还可以用于矢量和矩阵,具体取决于它们的实现。
如果所有操作都否定,divide和exp在这些类型上已经是泛型并且它们都支持GenericOne,那么对于您的特定情况,这将是一个更好的解决方案。
不幸的是截至今天,MathNet并未以这种方式为Matrix和Vector实现GenericOne
和exp
。
感兴趣:[从一个函数返回不同维度的数组;是否有可能在F#?](http://stackoverflow.com/questions/34599909/returning-arrays-of-different-dimensions-from-one-function-is-it-possible-in-f) –
出于好奇为什么你需要'Vector'结果。当我做我的神经网络时,我只需要'矩阵'。矩阵只使用'sigmoid'和矩阵使用'Map'函数,就像你做的那样,我在另一个答案中做了。 –
做神经网络时还要注意。使用CPU和GPU之间的速度差异如此之大,以至于我只使用CPU来学习和测试代码,而任何认真的工作只会使用GPU,甚至只能使用预先写好的测试库,例如, [TensorFlow](https://www.tensorflow.org/),我还没有使用[CNTK](https://github.com/Microsoft/CNTK)。简而言之,如果您正在学习神经网络如何工作并在一个小时内获得结果,我不会担心它;当你开始做大型项目时,担心后者。 –