-
Jetson Nano上的Onnx到Tensorrt弧面模型转换错误(分段断层堆芯)
我正在将onnx版本的arcface模型转换为tensorrt。我正在关注该过程的官方nvidia文档。但是,我得到了一个错 -
当我使用Valgrind运行程序时,为什么cv :: VideoCapture无法打开USB摄像机?
我有一个多线程程序,该程序使用opencv从USB相机读取和处理图像。我有一个线程仅从相机读取帧,而另 -
我收到valueError:输入包含NaN,无穷大或dtype('float64')太大的值。在Jetson Nano上运行时
当我使用knn进行识别并运行以下功能时: <pre><code>def predict(X_img_path, knn_clf=None, model_path=None, distance_th -
在Jetson Nano上为TensorRT转换TF 2.0保存的模型
我正在尝试在Jetson Nano上将TF 2.0 save_model转换为tensorRT。 模型已保存在TF 2.0.0中。 nano具有Jetpack 4.2.2 -
使用tf.trt为Jetson Nano转换TF模型时出错
我正在尝试在Jetson Nano上将TF 1.14.0 saved_model转换为tensorRT。我已经通过<code>tf.saved_model.save</code>保存了模 -
在Jetson Nano上检测车祸
我正在尝试创建一个机器学习模型,该模型将部署在<strong> jetson nano </strong>设备上,该模型将在其中接 -
带有GStreamer(RTSP)的流网络摄像头
我有<a href="https://kodakpixpro.com/cameras/360-vr/sp360-4k" rel="nofollow noreferrer">Kodak PIXPRO SP360 4k camera</a>通过USB电缆 -
Gstreamer无法从USB摄像机捕获视频
我有一个<strong> <em> HikVision MV-CA050-20UC </em> </strong> <strong> USB相机</strong>(USB 3.0)。我想使用<strong> gstream -
如何确定Jetson Nano交换文件的优先级
我们已经在jetson nano上安装了Jetpack 4.2.3。这创建了一个2 GB的内置zram内存。 我们还使用以下内容添加了4 -
深度学习模型训练速度非常慢的Jetson Nano
我最近购买了Jetson Nano,对此一切感到惊讶。但是我不知道发生了什么,因为我用keras创建了一个非常简 -
编译OpenCV会产生cuda错误-目标'modules / core / CMakeFiles / opencv_core.dir / src / opengl.cpp.o'的配方失败
我正在尝试编译openCV,但是它似乎不起作用。 这是cuda的问题吗? 我正在docker-container(nvidi -
NVIDIA Jetson Nano上的Google AutoML Vision导出模型
我想在NVIDIA Jetson Nano上运行Google AutoML Vision的导出模型。由于很容易,我想使用预构建的容器根据官方<a -
TF-TRT与UFF-TensorRT
我发现我们可以通过多种方式优化Tensorflow模型。如果我弄错了,请告诉我。 1-使用<a href="https://do -
错误-丢弃了很多缓冲区-在NVIDIA Jetson Nano上运行ds sdk python示例+ IPcamera时
我已经安装了Deep stream SDK 4.0.2,当我运行python示例时,初始化需要花费几分钟以上的时间,几秒钟后, -
将预安装的Opencv用于多个虚拟环境
我在Jetson Nano上使用<a href="https://docs.nvidia.com/jetson/jetpack/release-notes/" rel="nofollow noreferrer">Jetpack 4.3</a>(Nvi -
如何将以bgr8编码的ndarray中的图像数据转换为python中的jpeg图像?
我正在尝试使用jetcam.csi_camera库在jetson nano上使用csi相机捕获图像。库中的read方法返回一个n维数组,并 -
在客户端Gstreamer上流化并保存视频
我已经找到了满足自己需求的最佳选择,但需要一些帮助来组合它们。 我可以使用以下代码保存视频:< -
如何在Jetson Nano而不是ssh-mobilenet-v2上使用我自己的.pb模型?
伙计们,我有个问题。我可以在Jetson Nano上运行“对象检测” python示例。在这种情况下为“ ssh-mobilenet-v2 -
错误:(-215:断言失败)使用Jetson Nano和Raspberry Pi摄像头模块V2时,函数'cvtColor'中的!_src.empty()
嗨, 我正在使用Jetson Nano和Raspberry Pi相机模块V2,并且希望运行有关YOLO +对象检测的课程中的代码 -
无法在Jetson Nano上构建内核4.9
我正在尝试在Jetson Nano上构建Kernel 4.9,但是出现以下<strong>错误消息:</strong> <blockquote> 在包含 -
Jetson Nano上TensorRt模型(pytorch-> onnx-> TensorRT)的准确性降低
我要在jetson nano上推断TensorRt模型。它是从pytorch通过onnx转换的。 在推论时,TensorRt模型的准确性急剧下 -
如何使用trt.TrtGraphConverterV2(或其他建议)将Tensorflow模型转换为TensorRT优化模型?
我对TensorRT和Tensorflow有问题。 我正在使用NVIDIA jetson nano,我尝试将简单的Tensorflow模型转换为TensorRT优化 -
使用Tensorflow检测车牌上的国家/地区代码
通过标记国家代码字母来训练张量流是应用在车牌检测上的一个好主意。我已经尝试过这种方法,但是 -
安全启动Jetson Nano基本问题
我是nvidia jetson nano中安全启动程序的新手。 我使用以下方法熔断了保险丝: <pre><code>sudo ./odmfu -
当系统在Jetson Nano上启动时自动运行python脚本
当系统在jetson nano上启动时,如何自动运行我制作的python脚本? -
安装SoftKinetic DepthSense SDK
我试图结合Pi Cam V2在我的Nvidia Jetson Nano上安装DepthSense SDK,但是大多数安装指南都从SoftKinetic网站链接到L -
ImportError:/usr/lib/aarch64-linux-gnu/libgomp.so.1:无法在静态TLS块中分配内存
我试图找出我在Jetson Nano上安装的某些软件的版本。 所以我写了几行代码,并使用终端在python3中运行它 -
工作线程中的TensorRT执行上下文无法正常工作或导致崩溃
我构建了此线程类以使用TensorRT运行推理: <pre><code>class GPUThread(threading.Thread): def __init__(self, engine_p -
Flask应用在预测时一直处于加载状态(TensorRT)
这是问题的延续 <a href="https://stackoverflow.com/questions/61056832/facing-issue-while-running-flask-app-with-tensorrt-m -
发出在Jetson Nano上安装OpenCV 4.1.2的问题。导入cv2,没有名为“ cv2”的模块
我从具有CUDA支持的源代码安装了OpenCV 4.1.2。没问题。并创建了从OpenCV的安装目录到我的virtualenv的符号链