使用OpenVINO上的c ++ API获取模型每一层的参数/权重

时间:2020-01-27 12:15:30

标签: c++ neural-network intel openvino

我一直在寻找一种使用OpenVINO框架上的C ++ API获取网络每一层权重/参数和偏差张量的方法。我在文档中找不到任何内容,在示例中也找不到任何示例。我如何提取这些张量?

谢谢, 塞萨尔。

编辑: 分别获取权重和偏见的代码:

for (auto&& layer : this->pImplementation->network) {
        weightsbuf << "Layer name: " << layer->name << std::endl;
        weightsbuf << "Parameters:" << std::endl;

        for (auto&& param : layer->params) {

            weightsbuf << '\t' << param.first << ": " << param.second << std::endl;
        }

        std::vector<int> kernelvect;
        auto kernelsize = layer->params.at("kernel");

        std::stringstream ss(kernelsize);

        // split by comma kernel size
        for (int i; ss >> i;) {
            kernelvect.push_back(i);
            if (ss.peek() == ',')
                ss.ignore();
        }
        int noutputs = std::stoi(layer->params.at("output"));
        int nweights = kernelvect[0] * kernelvect[1] * noutputs;
        int nbias = noutputs;

        for (auto&& blob : layer->blobs) {
            weightsbuf << '\t' << blob.first << ": ";
            for (size_t w = 0; w < nweights; ++w) {
                weightsbuf << blob.second->buffer().as<float*>()[w] << " ";
            }
            weightsbuf << std::endl;
            weightsbuf << '\t' << "biases:";
            for (size_t b = 0; b < nbias; ++b) {
                weightsbuf << blob.second->buffer().as<float*>()[nweights + b] << " ";
            }
        }
        weightsbuf << std::endl;
    }

1 个答案:

答案 0 :(得分:1)

似乎没有官方示例可以显示该功能。我也没有找到类似的东西。

我实现了一个基本示例,该示例打印了有关网络各层的信息。请看一下:https://github.com/ArtemSkrebkov/dldt/blob/askrebko/iterate-through-network/inference-engine/samples/cnn_network_parser/main.cpp

我相信使用API​​的想法很明确。

该示例基于dldt repo的当前状态(分支“ 2019”,它对应于版本2019 R3.1)

另一个可能有用的链接是CNNLayer类的文档: https://docs.openvinotoolkit.org/latest/classInferenceEngine_1_1CNNLayer.html

相关问题