NeuroNetworksBook/Include/realization/neuronbase.mqh
super.admin 4a9222852c convert
2025-05-30 16:12:34 +02:00

1042 lines
84 KiB
MQL5

//+------------------------------------------------------------------+
//| NeuronBase.mqh |
//| Copyright 2021, MetaQuotes Ltd. |
//| https://www.mql5.com |
//+------------------------------------------------------------------+
#property copyright "Copyright 2021, MetaQuotes Ltd."
#property link "https://www.mql5.com"
//+------------------------------------------------------------------+
//| Подключаем библиотеки |
//+------------------------------------------------------------------+
#include <Math\Stat\Normal.mqh>
#include "bufferdouble.mqh"
#include "layerdescription.mqh"
#include "activation.mqh"
//+------------------------------------------------------------------+
//| Class CNeuronBase |
//| Назначение: Базовый класс полносвязного нейронного слоя |
//+------------------------------------------------------------------+
class CNeuronBase : public CObject
{
protected:
bool m_bTrain;
CMyOpenCL *m_cOpenCL;
CActivation *m_cActivation;
ENUM_OPTIMIZATION m_eOptimization;
CBufferDouble *m_cOutputs;
CBufferDouble *m_cWeights;
CBufferDouble *m_cDeltaWeights;
CBufferDouble *m_cGradients;
CBufferDouble *m_cMomenum[2];
//---
virtual bool SGDUpdate(int batch_size, double learningRate,
double &Lambda[]);
virtual bool MomentumUpdate(int batch_size, double learningRate,
double &Beta[], double &Lambda[]);
virtual bool AdaGradUpdate(int batch_size, double learningRate,
double &Lambda[]);
virtual bool RMSPropUpdate(int batch_size, double learningRate,
double &Beta[], double &Lambda[]);
virtual bool AdaDeltaUpdate(int batch_size,
double &Beta[], double &Lambda[]);
virtual bool AdamUpdate(int batch_size, double learningRate,
double &Beta[], double &Lambda[]);
public:
CNeuronBase(void);
~CNeuronBase(void);
//---
virtual bool Init(CLayerDescription *description);
virtual bool SetOpenCL(CMyOpenCL *opencl);
virtual bool FeedForward(CNeuronBase *prevLayer);
virtual bool CalcOutputGradient(CBufferDouble *target);
virtual bool CalcHiddenGradient(CNeuronBase *prevLayer);
virtual bool CalcDeltaWeights(CNeuronBase *prevLayer);
virtual bool UpdateWeights(int batch_size, double learningRate,
double &Beta[], double &Lambda[]);
//---
virtual void TrainMode(bool flag) { m_bTrain = flag; }
virtual bool TrainMode(void) const { return m_bTrain; }
//---
CBufferDouble *GetOutputs(void) const { return(m_cOutputs); }
CBufferDouble *GetGradients(void) const { return(m_cGradients); }
CBufferDouble *GetWeights(void) const { return(m_cWeights); }
CBufferDouble *GetDeltaWeights(void) const { return(m_cDeltaWeights);}
//--- methods for working with files
virtual bool Save(const int file_handle);
virtual bool Load(const int file_handle);
//--- method of identifying the object
virtual int Type(void) const { return(defNeuronBase); }
};
//+------------------------------------------------------------------+
//| Конструктор класса |
//+------------------------------------------------------------------+
CNeuronBase::CNeuronBase(void) : m_eOptimization(Adam)
{
m_cOpenCL = NULL;
m_cActivation = new CActivation();
m_cOutputs = new CBufferDouble();
m_cWeights = new CBufferDouble();
m_cDeltaWeights = new CBufferDouble();
m_cGradients = new CBufferDouble();
m_cMomenum[0] = new CBufferDouble();
m_cMomenum[1] = new CBufferDouble();
}
//+------------------------------------------------------------------+
//| Деструктор класса |
//+------------------------------------------------------------------+
CNeuronBase::~CNeuronBase(void)
{
if(m_cActivation)
delete m_cActivation;
if(m_cOutputs)
delete m_cOutputs;
if(m_cWeights)
delete m_cWeights;
if(m_cDeltaWeights)
delete m_cDeltaWeights;
if(m_cGradients)
delete m_cGradients;
if(m_cMomenum[0])
delete m_cMomenum[0];
if(m_cMomenum[1])
delete m_cMomenum[1];
}
//+------------------------------------------------------------------+
//| Метод распределения указателя на объект работы с контекстом |
//| OpenCL |
//+------------------------------------------------------------------+
bool CNeuronBase::SetOpenCL(CMyOpenCL *opencl)
{
if(!opencl)
{
if(m_cOutputs)
m_cOutputs.BufferFree();
if(m_cGradients)
m_cGradients.BufferFree();
if(m_cWeights)
m_cWeights.BufferFree();
if(m_cDeltaWeights)
m_cDeltaWeights.BufferFree();
for(int i = 0; i < 2; i++)
{
if(m_cMomenum[i])
m_cMomenum[i].BufferFree();
}
}
if(m_cOpenCL != opencl)
{
if(m_cOpenCL)
delete m_cOpenCL;
m_cOpenCL = opencl;
if(m_cOutputs)
m_cOutputs.BufferCreate(opencl);
if(m_cGradients)
m_cGradients.BufferCreate(opencl);
if(m_cWeights)
m_cWeights.BufferCreate(opencl);
if(m_cDeltaWeights)
m_cDeltaWeights.BufferCreate(opencl);
for(int i = 0; i < 2; i++)
{
if(m_cMomenum[i])
m_cMomenum[i].BufferCreate(opencl);
}
if(m_cActivation)
m_cActivation.SetOpenCL(m_cOpenCL);
}
//---
return(!!m_cOpenCL);
}
//+------------------------------------------------------------------+
//| Метод инициализации класса |
//+------------------------------------------------------------------+
bool CNeuronBase::Init(CLayerDescription *desc)
{
//--- Блок контроля исходных данных
if(!desc || desc.type != Type() || desc.count <= 0)
return false;
//--- Создание буфера результатов
if(!m_cOutputs)
if(!(m_cOutputs = new CBufferDouble()))
return false;
if(!m_cOutputs.BufferInit(1, desc.count, 0))
return false;
//--- Создание буфера градиентов ошибюки
if(!m_cGradients)
if(!(m_cGradients = new CBufferDouble()))
return false;
if(!m_cGradients.BufferInit(1, desc.count, 0))
return false;
//--- Удаление не используемых объектов для слоя исходных данных
if(desc.window <= 0)
{
if(m_cActivation)
delete m_cActivation;
if(m_cWeights)
delete m_cWeights;
if(m_cDeltaWeights)
delete m_cDeltaWeights;
if(m_cMomenum[0])
delete m_cMomenum[0];
if(m_cMomenum[1])
delete m_cMomenum[1];
if(m_cOpenCL)
if(!m_cOutputs.BufferCreate(m_cOpenCL))
return false;
m_eOptimization = desc.optimization;
return true;
}
//--- Инициализация объекта функции активации
if(!m_cActivation)
if(!(m_cActivation = new CActivation()))
return false;
m_cActivation.SetFunction(desc.activation,
m_cOutputs.m_mMatrix,
desc.activation_params[0],
desc.activation_params[1]);
m_cActivation.SetOpenCL(m_cOpenCL);
//--- Инициализация объекта матрицы весов
if(!m_cWeights)
if(!(m_cWeights = new CBufferDouble()))
return false;
if(!m_cWeights.BufferInit(desc.count, desc.window + 1, 0))
return false;
double weights[];
double sigma = desc.activation == ACT_LReLU ?
2.0 / (double)(MathPow(1 + desc.activation_params[0], 2) * desc.window) :
1.0 / (double)desc.window;
if(!MathRandomNormal(0, MathSqrt(sigma), m_cWeights.Total(), weights))
return false;
for(uint i = 0; i < m_cWeights.Total(); i++)
if(!m_cWeights.m_mMatrix.Flat(i, weights[i]))
return false;
//--- Инициализация объекта накопления градиентов на уровне матрицы весов
if(!m_cDeltaWeights)
if(!(m_cDeltaWeights = new CBufferDouble()))
return false;
if(!m_cDeltaWeights.BufferInit(desc.count, desc.window + 1, 0))
return false;
//--- Инициализация объектов моментов
switch(desc.optimization)
{
case None:
case SGD:
for(int i = 0; i < 2; i++)
if(m_cMomenum[i])
delete m_cMomenum[i];
break;
case MOMENTUM:
case AdaGrad:
case RMSProp:
if(!m_cMomenum[0])
if(!(m_cMomenum[0] = new CBufferDouble()))
return false;
if(!m_cMomenum[0].BufferInit(desc.count, desc.window + 1, 0))
return false;
if(m_cMomenum[1])
delete m_cMomenum[1];
break;
case AdaDelta:
case Adam:
for(int i = 0; i < 2; i++)
{
if(!m_cMomenum[i])
if(!(m_cMomenum[i] = new CBufferDouble()))
return(false);
if(!m_cMomenum[i].BufferInit(desc.count, desc.window + 1, 0))
return false;
}
break;
default:
return false;
break;
}
//--- Сохранение метода оптимизации параметров
m_eOptimization = desc.optimization;
return true;
}
//+------------------------------------------------------------------+
//| Метод прямого прохода |
//+------------------------------------------------------------------+
bool CNeuronBase::FeedForward(CNeuronBase *prevLayer)
{
//--- Блок контролей
if(!prevLayer || !m_cOutputs || !m_cWeights || !prevLayer.GetOutputs() || !m_cActivation)
return false;
CBufferDouble *input_data = prevLayer.GetOutputs();
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
uint input_total = input_data.Total();
uint output_total = m_cOutputs.Total();
if(m_cWeights.Total() < (input_total + 1)*output_total)
return false;
//---
MATRIX m = input_data.m_mMatrix;
m.Resize(m.Rows(), m.Cols() + 1);
VECTOR v;
v.Init(m.Rows());
v.Fill(1);
if(!m.Col(v, input_data.m_mMatrix.Cols()))
return false;
m_cOutputs.m_mMatrix = m.MatMul(m_cWeights.m_mMatrix.Transpose());
return m_cActivation.Activation(m_cOutputs);
}
else
{
//--- Создание буферов данных
if(input_data.GetIndex() < 0)
return false;
if(m_cWeights.GetIndex() < 0)
return false;
if(m_cActivation.GetIndex() < 0)
return false;
if(m_cOutputs.GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_PerceptronFeedForward, def_pff_inputs, input_data.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_PerceptronFeedForward, def_pff_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_PerceptronFeedForward, def_pff_sums, m_cActivation.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_PerceptronFeedForward, def_pff_outputs, m_cOutputs.GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_PerceptronFeedForward, def_pff_inputs_total, input_data.Total()))
return false;
double params[];
ENUM_ACTIVATION function = m_cActivation.GetFunction(params);
if(!m_cOpenCL.SetArgument(def_k_PerceptronFeedForward, def_pff_activation, (int)function))
return false;
if(!m_cOpenCL.SetArgument(def_k_PerceptronFeedForward, def_pff_act_param_a, params[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_PerceptronFeedForward, def_pff_act_param_b, params[1]))
return false;
//--- Постановка кернела в очередь выполнения
uint off_set[] = {0};
uint NDRange[] = {m_cOutputs.Total()};
if(!m_cOpenCL.Execute(def_k_PerceptronFeedForward, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cOutputs.BufferRead())
return false;
if(function != ACT_SOFTMAX)
return true;
//--- Только для SoftMax, нормализация результатов
//--- вычисление ощей суммы всех значений буфера данных
double summ = 0;
double array[];
int total = m_cOutputs.GetData(array);
if(total <= 0)
return false;
for(int i = 0; i < total; i++)
summ += array[i];
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_Normalize, def_norm_inputs, m_cOutputs.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_Normalize, def_norm_outputs, m_cOutputs.GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_Normalize, def_norm_inputs_total, total))
return false;
if(!m_cOpenCL.SetArgument(def_k_Normalize, def_norm_const_value, summ))
return false;
//--- Постановка кернела в очередь выполнения
NDRange[0] = (total + 3) / 4;
if(!m_cOpenCL.Execute(def_k_Normalize, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cOutputs.BufferRead())
return false;
return true;
}
//---
return false;
}
//+------------------------------------------------------------------+
//| Метод расчёта градиента ошибки слоя результатов |
//+------------------------------------------------------------------+
bool CNeuronBase::CalcOutputGradient(CBufferDouble *target)
{
//--- Блок контролей
if(!target || !m_cOutputs || !m_cGradients || target.Total() < m_cOutputs.Total() || m_cGradients.Total() < m_cOutputs.Total())
return false;
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
m_cGradients.m_mMatrix = target.m_mMatrix - m_cOutputs.m_mMatrix;
}
else
{
//--- Создание буферов данных
if(target.GetIndex() < 0)
return false;
if(m_cOutputs.GetIndex() < 0)
return false;
if(m_cGradients.GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcOutputGradient, def_outgr_target, target.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcOutputGradient, def_outgr_outputs, m_cOutputs.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcOutputGradient, def_outgr_gradients, m_cGradients.GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_CalcOutputGradient, def_outgr_outputs_total, m_cOutputs.Total()))
return false;
//--- Постановка кернела в лчередь выполнения
uint NDRange[] = { (m_cOutputs.Total() + 3) / 4 };
uint off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_CalcOutputGradient, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cGradients.BufferRead())
return false;
}
//---
return true;
}
//+------------------------------------------------------------------+
//| Метод распределения градиента через скрытый слой |
//+------------------------------------------------------------------+
bool CNeuronBase::CalcHiddenGradient(CNeuronBase *prevLayer)
{
//--- Корректировка входящего градиента на производную функции активации
if(!m_cActivation.Derivative(m_cOutputs, m_cGradients))
return false;
if(!prevLayer)
return false;
//--- Проверка буферов предыдущего слоя
CBufferDouble *input_data = prevLayer.GetOutputs();
CBufferDouble *input_gradient = prevLayer.GetGradients();
if(!input_data || !input_gradient || input_data.Total() > input_gradient.Total())
return false;
//--- Проверка соответствия размера буфера исходных данных и матрицы весов
uint input_total = input_data.Total();
if(!m_cWeights || m_cWeights.m_mMatrix.Cols() != (input_total + 1))
return false;
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
MATRIX grad = m_cGradients.m_mMatrix.MatMul(m_cWeights.m_mMatrix);
grad.Resize(input_data.m_mMatrix.Rows(), input_data.m_mMatrix.Cols());
input_gradient.m_mMatrix = grad;
}
else
{
//--- Создание буферов данных
if(m_cWeights.GetIndex() < 0)
return false;
if(input_gradient.GetIndex() < 0)
return false;
if(m_cGradients.GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcHiddenGradient, def_hidgr_gradient_inputs, input_gradient.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcHiddenGradient, def_hidgr_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcHiddenGradient, def_hidgr_gradients, m_cGradients.GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_CalcHiddenGradient, def_hidgr_outputs_total, m_cGradients.Total()))
return false;
//--- Постановка кернела в очередь выполнения
uint NDRange[] = {input_total};
uint off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_CalcHiddenGradient, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!input_gradient.BufferRead())
return false;
}
//---
return true;
}
//+------------------------------------------------------------------+
//| Метод распределение градиента ошибки до матрицы весов |
//+------------------------------------------------------------------+
bool CNeuronBase::CalcDeltaWeights(CNeuronBase *prevLayer)
{
//--- Блок контролей
if(!prevLayer || !m_cDeltaWeights || !m_cGradients)
return false;
CBufferDouble *Inputs = prevLayer.GetOutputs();
if(!Inputs)
return false;
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
MATRIX m = Inputs.m_mMatrix;
m.Resize(m.Rows(), m.Cols() + 1);
VECTOR v;
v.Init(m.Rows());
v.Fill(1);
if(!m.Col(v, Inputs.m_mMatrix.Cols()))
return false;
m = m_cGradients.m_mMatrix.Transpose().MatMul(m);
m_cDeltaWeights.m_mMatrix += m;
}
else
{
//--- Создание буферов данных
if(m_cGradients.GetIndex() < 0)
return false;
if(m_cDeltaWeights.GetIndex() < 0)
return false;
if(Inputs.GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcDeltaWeights, def_delt_delta_weights, m_cDeltaWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcDeltaWeights, def_delt_inputs, Inputs.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_CalcDeltaWeights, def_delt_gradients, m_cGradients.GetIndex()))
return false;
//--- Постановка кернела в очередь выполнения
uint NDRange[] = {m_cGradients.Total(), Inputs.Total()};
uint off_set[] = {0, 0};
if(!m_cOpenCL.Execute(def_k_CalcDeltaWeights, 2, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cDeltaWeights.BufferRead())
return false;
}
//---
return true;
}
//+------------------------------------------------------------------+
//| Метод обновления матрицы весов |
//+------------------------------------------------------------------+
bool CNeuronBase::UpdateWeights(int batch_size, double learningRate, double &Beta[], double &Lambda[])
{
//--- Блок контролей
if(!m_cDeltaWeights || !m_cWeights || m_cWeights.Total() < m_cDeltaWeights.Total() || batch_size <= 0)
return false;
//--- Разветвление алгоритма в зависимости от используемой функции активации
bool result = false;
switch(m_eOptimization)
{
case None:
result = true;
break;
case SGD:
result = SGDUpdate(batch_size, learningRate, Lambda);
break;
case MOMENTUM:
result = MomentumUpdate(batch_size, learningRate, Beta, Lambda);
break;
case AdaGrad:
result = AdaGradUpdate(batch_size, learningRate, Lambda);
break;
case RMSProp:
result = RMSPropUpdate(batch_size, learningRate, Beta, Lambda);
break;
case AdaDelta:
result = AdaDeltaUpdate(batch_size, Beta, Lambda);
break;
case Adam:
result = AdamUpdate(batch_size, learningRate, Beta, Lambda);
break;
}
//---
return result;
}
//+------------------------------------------------------------------+
//| Обновление матрицы весов стохастическим градиентным спуском |
//+------------------------------------------------------------------+
bool CNeuronBase::SGDUpdate(int batch_size, double learningRate, double &Lambda[])
{
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
double lr = learningRate / ((double)batch_size);
m_cWeights.m_mMatrix -= Lambda[0] + Lambda[1] * m_cWeights.m_mMatrix;
m_cWeights.m_mMatrix += m_cDeltaWeights.m_mMatrix * lr;
m_cDeltaWeights.m_mMatrix.Fill(0);
}
else
{
//--- Создание буферов данных
if(m_cWeights.GetIndex() < 0)
return false;
if(m_cDeltaWeights.GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_SGDUpdate, def_sgd_delta_weights, m_cDeltaWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_SGDUpdate, def_sgd_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_SGDUpdate, def_sgd_total, m_cWeights.Total()))
return false;
if(!m_cOpenCL.SetArgument(def_k_SGDUpdate, def_sgd_batch_size, batch_size))
return false;
if(!m_cOpenCL.SetArgument(def_k_SGDUpdate, def_sgd_learningRate, learningRate))
return false;
if(!m_cOpenCL.SetArgument(def_k_SGDUpdate, def_sgd_Lambda1, Lambda[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_SGDUpdate, def_sgd_Lambda2, Lambda[1]))
return false;
//--- Постановка кернела в очередь выполнения
int NDRange[] = { (int)((m_cOutputs.Total() + 3) / 4) };
int off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_SGDUpdate, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cWeights.BufferRead())
return false;
}
return true;
}
//+------------------------------------------------------------------+
//| Обновление матрицы весов методом моментов |
//+------------------------------------------------------------------+
bool CNeuronBase::MomentumUpdate(int batch_size, double learningRate, double &Beta[], double &Lambda[])
{
if(Beta[0] == 0)
return SGDUpdate(batch_size, learningRate, Lambda);
//--- Блок контролей
if(!m_cMomenum[0])
return false;
if(m_cMomenum[0].Total() < m_cWeights.Total())
return false;
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
double lr = learningRate / ((double)batch_size);
m_cWeights.m_mMatrix -= Lambda[0] + m_cWeights.m_mMatrix * Lambda[1];
m_cMomenum[0].m_mMatrix = m_cDeltaWeights.m_mMatrix * lr + m_cMomenum[0].m_mMatrix * Beta[0] ;
m_cWeights.m_mMatrix += m_cMomenum[0].m_mMatrix;
}
else
{
//--- Создание буферов данных
if(m_cWeights.GetIndex() < 0)
return false;
if(m_cDeltaWeights.GetIndex() < 0)
return false;
if(m_cMomenum[0].GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_MomentumUpdate, def_moment_delta_weights, m_cDeltaWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_MomentumUpdate, def_moment_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_MomentumUpdate, def_moment_momentum, m_cMomenum[0].GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_MomentumUpdate, def_moment_total, m_cWeights.Total()))
return false;
if(!m_cOpenCL.SetArgument(def_k_MomentumUpdate, def_moment_batch_size, batch_size))
return false;
if(!m_cOpenCL.SetArgument(def_k_MomentumUpdate, def_moment_learningRate, learningRate))
return false;
if(!m_cOpenCL.SetArgument(def_k_MomentumUpdate, def_moment_Lambda1, Lambda[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_MomentumUpdate, def_moment_Lambda2, Lambda[1]))
return false;
if(!m_cOpenCL.SetArgument(def_k_MomentumUpdate, def_moment_beta, Beta[0]))
return false;
//--- Постановка кернела в очередь выполнения
int NDRange[] = { (int)((m_cOutputs.Total() + 3) / 4) };
int off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_MomentumUpdate, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cWeights.BufferRead())
return false;
}
return true;
}
//+------------------------------------------------------------------+
//| Обновление матрицы весов методом AdaGrad |
//+------------------------------------------------------------------+
bool CNeuronBase::AdaGradUpdate(int batch_size, double learningRate, double &Lambda[])
{
//--- Блок контролей
if(!m_cMomenum[0])
return false;
if(m_cMomenum[0].Total() < m_cWeights.Total())
return false;
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
double lr = learningRate;
m_cWeights.m_mMatrix -= Lambda[0] + Lambda[1] * m_cWeights.m_mMatrix;
MATRIX delta = m_cDeltaWeights.m_mMatrix / ((double)batch_size);
MATRIX G = m_cMomenum[0].m_mMatrix = m_cMomenum[0].m_mMatrix + delta.Power(2);
for(ulong r = 0; r < G.Rows(); r++)
for(ulong c = 0; c < G.Cols(); c++)
G[r, c] = (G[r, c] > 0 ? lr / MathSqrt(G[r, c]) : 0);
m_cWeights.m_mMatrix += G * delta;
}
else
{
//--- Создание буферов данных
if(m_cWeights.GetIndex() < 0)
return false;
if(m_cDeltaWeights.GetIndex() < 0)
return false;
if(m_cMomenum[0].GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdaGradUpdate, def_adagrad_delta_weights, m_cDeltaWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdaGradUpdate, def_adagrad_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdaGradUpdate, def_adagrad_momentum, m_cMomenum[0].GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaGradUpdate, def_adagrad_total, m_cWeights.Total()))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaGradUpdate, def_adagrad_batch_size, batch_size))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaGradUpdate, def_adagrad_learningRate, learningRate))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaGradUpdate, def_adagrad_Lambda1, Lambda[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaGradUpdate, def_adagrad_Lambda2, Lambda[1]))
return false;
//--- Постановка кернела в очередь выполнения
int NDRange[] = { (int)((m_cOutputs.Total() + 3) / 4) };
int off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_AdaGradUpdate, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cWeights.BufferRead())
return false;
}
return true;
}
//+------------------------------------------------------------------+
//| Обновление матрицы весов методом RMSProp |
//+------------------------------------------------------------------+
bool CNeuronBase::RMSPropUpdate(int batch_size, double learningRate, double &Beta[], double &Lambda[])
{
//--- Блок контролей
if(!m_cMomenum[0])
return false;
if(m_cMomenum[0].Total() < m_cWeights.Total())
return false;
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(!m_cOpenCL)
{
double lr = learningRate;
m_cWeights.m_mMatrix -= Lambda[0] + Lambda[1] * m_cWeights.m_mMatrix;
MATRIX delta = m_cDeltaWeights.m_mMatrix / ((double)batch_size);
MATRIX G = m_cMomenum[0].m_mMatrix = Beta[0] * m_cMomenum[0].m_mMatrix + (1 - Beta[0]) * delta.Power(2);
for(ulong r = 0; r < G.Rows(); r++)
for(ulong c = 0; c < G.Cols(); c++)
G[r, c] = (G[r, c] > 0 ? lr / MathSqrt(G[r, c]) : 0);
m_cWeights.m_mMatrix += G * delta;
}
else
{
//--- Создание буферов данных
if(m_cWeights.GetIndex() < 0)
return false;
if(m_cDeltaWeights.GetIndex() < 0)
return false;
if(m_cMomenum[0].GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_RMSPropUpdate, def_rms_delta_weights, m_cDeltaWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_RMSPropUpdate, def_rms_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_RMSPropUpdate, def_rms_momentum, m_cMomenum[0].GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_RMSPropUpdate, def_rms_total, m_cWeights.Total()))
return false;
if(!m_cOpenCL.SetArgument(def_k_RMSPropUpdate, def_rms_batch_size, batch_size))
return false;
if(!m_cOpenCL.SetArgument(def_k_RMSPropUpdate, def_rms_learningRate, learningRate))
return false;
if(!m_cOpenCL.SetArgument(def_k_RMSPropUpdate, def_rms_Lambda1, Lambda[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_RMSPropUpdate, def_rms_Lambda2, Lambda[1]))
return false;
if(!m_cOpenCL.SetArgument(def_k_RMSPropUpdate, def_rms_beta, Beta[0]))
return false;
//--- Постановка кернела в очередь выполнения
int NDRange[] = { (int)((m_cOutputs.Total() + 3) / 4) };
int off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_RMSPropUpdate, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cWeights.BufferRead())
return false;
}
//---
return true;
}
//+------------------------------------------------------------------+
//| Обновление матрицы весов методом AdaDelta |
//+------------------------------------------------------------------+
bool CNeuronBase::AdaDeltaUpdate(int batch_size, double &Beta[], double &Lambda[])
{
//--- Блок контролей
for(int i = 0; i < 2; i++)
{
if(!m_cMomenum[i])
return false;
if(m_cMomenum[i].Total() < m_cWeights.Total())
return false;
}
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(CheckPointer(m_cOpenCL) == POINTER_INVALID)
{
MATRIX delta = m_cDeltaWeights.m_mMatrix / ((double)batch_size);
MATRIX W = m_cMomenum[0].m_mMatrix = Beta[0] * m_cMomenum[0].m_mMatrix + (1 - Beta[0]) * m_cWeights.m_mMatrix.Power(2);
m_cMomenum[1].m_mMatrix = Beta[1] * m_cMomenum[1].m_mMatrix + (1 - Beta[1]) * delta.Power(2);
m_cWeights.m_mMatrix -= Lambda[0] + Lambda[1] * m_cWeights.m_mMatrix;
for(ulong r = 0; r < W.Rows(); r++)
for(ulong c = 0; c < W.Cols(); c++)
W[r, c] = (m_cMomenum[1].m_mMatrix[r, c] > 0 ? MathSqrt(W[r, c]) / MathSqrt(m_cMomenum[1].m_mMatrix[r, c]) : 0);
m_cWeights.m_mMatrix += W * delta;
}
else
{
//--- Создание буферов данных
if(m_cWeights.GetIndex() < 0)
return false;
if(m_cDeltaWeights.GetIndex() < 0)
return false;
if(m_cMomenum[0].GetIndex() < 0)
return false;
if(m_cMomenum[1].GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdaDeltaUpdate, def_adadelt_delta_weights, m_cDeltaWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdaDeltaUpdate, def_adadelt_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdaDeltaUpdate, def_adadelt_momentumW, m_cMomenum[0].GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdaDeltaUpdate, def_adadelt_momentumG, m_cMomenum[1].GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaDeltaUpdate, def_adadelt_total, m_cWeights.Total()))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaDeltaUpdate, def_adadelt_batch_size, batch_size))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaDeltaUpdate, def_adadelt_Lambda1, Lambda[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaDeltaUpdate, def_adadelt_Lambda2, Lambda[1]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaDeltaUpdate, def_adadelt_beta1, Beta[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdaDeltaUpdate, def_adadelt_beta2, Beta[1]))
return false;
//--- Постановка кернела в очередь выполнения
int NDRange[] = { (int)((m_cOutputs.Total() + 3) / 4) };
int off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_AdaDeltaUpdate, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cWeights.BufferRead())
return false;
}
//---
return true;
}
//+------------------------------------------------------------------+
//| Обновление матрицы весов методом Adam |
//+------------------------------------------------------------------+
bool CNeuronBase::AdamUpdate(int batch_size, double learningRate, double &Beta[], double &Lambda[])
{
//--- Блок контролей
for(int i = 0; i < 2; i++)
{
if(!m_cMomenum[i])
return false;
if(m_cMomenum[i].m_mMatrix.Rows() != m_cWeights.m_mMatrix.Rows() ||
m_cMomenum[i].m_mMatrix.Cols() != m_cWeights.m_mMatrix.Cols())
return false;
}
//--- Разветвление алгоритма в зависимости от устройста выполнениия операций
if(CheckPointer(m_cOpenCL) == POINTER_INVALID)
{
MATRIX delta = m_cDeltaWeights.m_mMatrix / ((double)batch_size);
MATRIX M = m_cMomenum[0].m_mMatrix = Beta[0] * m_cMomenum[0].m_mMatrix + (1 - Beta[0]) * delta;
MATRIX V = m_cMomenum[1].m_mMatrix = Beta[1] * m_cMomenum[1].m_mMatrix + (1 - Beta[1]) * (delta * delta);
M /= (1 - Beta[0]);
V /= (1 - Beta[1]);
m_cWeights.m_mMatrix -= Lambda[0] + Lambda[1] * m_cWeights.m_mMatrix;
for(ulong r = 0; r < V.Rows(); r++)
for(ulong c = 0; c < V.Cols(); c++)
V[r, c] = (V[r, c] > 0 ? learningRate / MathSqrt(V[r, c]) : 0);
m_cWeights.m_mMatrix += M * V;
}
else
{
//--- Создание буферов данных
if(m_cWeights.GetIndex() < 0)
return false;
if(m_cDeltaWeights.GetIndex() < 0)
return false;
if(m_cMomenum[0].GetIndex() < 0)
return false;
if(m_cMomenum[1].GetIndex() < 0)
return false;
//--- Передача аргументов кернелу
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdamUpdate, def_adam_delta_weights, m_cDeltaWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdamUpdate, def_adam_weights, m_cWeights.GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdamUpdate, def_adam_momentumM, m_cMomenum[0].GetIndex()))
return false;
if(!m_cOpenCL.SetArgumentBuffer(def_k_AdamUpdate, def_adam_momentumV, m_cMomenum[1].GetIndex()))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdamUpdate, def_adam_total, m_cWeights.Total()))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdamUpdate, def_adam_batch_size, batch_size))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdamUpdate, def_adam_Lambda1, Lambda[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdamUpdate, def_adam_Lambda2, Lambda[1]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdamUpdate, def_adam_beta1, Beta[0]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdamUpdate, def_adam_beta2, Beta[1]))
return false;
if(!m_cOpenCL.SetArgument(def_k_AdamUpdate, def_adam_learningRate, learningRate))
return false;
//--- Постановка кернела в очередь выполнения
int NDRange[] = { (int)((m_cOutputs.Total() + 3) / 4) };
int off_set[] = {0};
if(!m_cOpenCL.Execute(def_k_AdamUpdate, 1, off_set, NDRange))
return false;
//--- Получение результатов работы кернела
if(!m_cWeights.BufferRead())
return false;
}
//---
return true;
}
//+------------------------------------------------------------------+
//| Метод сохранения элементов класса в файл |
//+------------------------------------------------------------------+
bool CNeuronBase::Save(const int file_handle)
{
//--- Блок контролей
if(file_handle == INVALID_HANDLE)
return false;
//--- Запись данных буфера резльтатов
if(!m_cOutputs)
return false;
if(FileWriteInteger(file_handle, Type()) <= 0 ||
FileWriteInteger(file_handle, m_cOutputs.Total()) <= 0)
return false;
//--- Проверка и запись флага слоя исходных данных
if(!m_cActivation || !m_cWeights)
{
if(FileWriteInteger(file_handle, 1) <= 0)
return false;
return true;
}
if(FileWriteInteger(file_handle, 0) <= 0)
return false;
int momentums = 0;
switch(m_eOptimization)
{
case SGD:
momentums = 0;
break;
case MOMENTUM:
case AdaGrad:
case RMSProp:
momentums = 1;
break;
case AdaDelta:
case Adam:
momentums = 2;
break;
default:
return false;
break;
}
for(int i = 0; i < momentums; i++)
if(!m_cMomenum[i])
return false;
//--- Сохранение матрицы весовых коэффициентов, моментов и функции активации
if(FileWriteInteger(file_handle, (int)m_eOptimization) <= 0 ||
FileWriteInteger(file_handle, momentums) <= 0)
return false;
if(!m_cWeights.Save(file_handle) || !m_cActivation.Save(file_handle))
return false;
for(int i = 0; i < momentums; i++)
if(!m_cMomenum[i].Save(file_handle))
return false;
//---
return true;
}
//+------------------------------------------------------------------+
//| Метод восстановлкения состояния класса из данных в файле |
//+------------------------------------------------------------------+
bool CNeuronBase::Load(const int file_handle)
{
//--- Блок контролей
if(file_handle == INVALID_HANDLE)
return false;
//--- Загрузка буфера результатов
if(!m_cOutputs)
if(!(m_cOutputs = new CBufferDouble()))
return false;
int outputs = FileReadInteger(file_handle);
if(!m_cOutputs.BufferInit(1, outputs, 0))
return false;
//--- Создание буфера градиентов ошибки
if(!m_cGradients)
if(!(m_cGradients = new CBufferDouble()))
return false;
if(!m_cGradients.BufferInit(1, outputs, 0))
return false;
//--- Проверка флага слоя исходных данных
int input_layer = FileReadInteger(file_handle);
if(input_layer == 1)
{
if(m_cActivation)
delete m_cActivation;
if(m_cWeights)
delete m_cWeights;
if(m_cDeltaWeights)
delete m_cDeltaWeights;
if(m_cMomenum[0])
delete m_cMomenum[0];
if(m_cMomenum[1])
delete m_cMomenum[1];
if(m_cOpenCL)
if(!m_cOutputs.BufferCreate(m_cOpenCL))
return false;
m_eOptimization = None;
return true;
}
//--- Создание объектов перед загрузкой данных
if(!m_cActivation)
if(!(m_cActivation = new CActivation()))
return false;
if(!m_cWeights)
if(!(m_cWeights = new CBufferDouble()))
return false;
m_eOptimization = (ENUM_OPTIMIZATION)FileReadInteger(file_handle);
int momentums = FileReadInteger(file_handle);
//--- Загрузка данный из файла
if(!m_cWeights.Load(file_handle) || !m_cActivation.Load(file_handle))
return false;
for(int i = 0; i < momentums; i++)
{
if(!m_cMomenum[i])
if(!(m_cMomenum[i] = new CBufferDouble()))
return false;
if(!m_cMomenum[i].Load(file_handle))
return false;
}
//--- Инициализация оставшихся буферов
if(!m_cDeltaWeights)
if(!(m_cDeltaWeights = new CBufferDouble()))
return false;
//if(!m_cDeltaWeights.BufferInit(m_cWeights.m_mMatrix.Rows(),m_cWeights.m_mMatrix.Cols(), 0))
// return false;
//--- Передача указателя на объекто OpenCL в объект функции активации
m_cActivation.SetOpenCL(m_cOpenCL);
//---
return true;
}
//+------------------------------------------------------------------+