-
Jetson Nano和Yocto / poky Zeus
我正在尝试使用最新的Yocto版本为我的Jetson Nano构建图像。为此,我需要CUDA 10,它是Jetson Nano图像构建所 -
Jetson TX2上的Tensorflow导入导致分段错误(核心已转储)
在用Jetpack 4.2.2刷新Jetson TX2之后,我遵循了该安装教程(<a href="https://devtalk.nvidia.com/default/topic/1038957/tenso -
SDKManager安装-没有ARM文件
NVIDIA提供的l4t-base:r32.2.1基本映像(jetson)没有cuda二进制文件 Pytorch正在寻找。我无法从Jetpack 4.2.2(特 -
在NVIDIA Jetson TX2上将COCO权重加载到Mask R-CNN时出现问题:资源已耗尽
我目前正在将NVIDIA Jetson TX2与Ubuntu 18.04结合使用,以使用自定义数据集训练Mask R-CNN(Matterport实现<a href="h -
在Jetson TX2中未配置USB端口
我使用JetPack 3.3为Jetson TX2(带有Orbitty Carrier)进行了闪烁。我能够闪过杰森。之后,当我将Jetson与显示 -
在Jetson Nano上为TensorRT转换TF 2.0保存的模型
我正在尝试在Jetson Nano上将TF 2.0 save_model转换为tensorRT。 模型已保存在TF 2.0.0中。 nano具有Jetpack 4.2.2 -
Tobii和物体检测
我正在尝试使用yolo / darknet API将tobi眼动仪连接到运行tensorflow对象检测的jetson tx2。不幸的是,由于驱动 -
使用tf.trt为Jetson Nano转换TF模型时出错
我正在尝试在Jetson Nano上将TF 1.14.0 saved_model转换为tensorRT。我已经通过<code>tf.saved_model.save</code>保存了模 -
带有GStreamer(RTSP)的流网络摄像头
我有<a href="https://kodakpixpro.com/cameras/360-vr/sp360-4k" rel="nofollow noreferrer">Kodak PIXPRO SP360 4k camera</a>通过USB电缆 -
如何确定Jetson Nano交换文件的优先级
我们已经在jetson nano上安装了Jetpack 4.2.3。这创建了一个2 GB的内置zram内存。 我们还使用以下内容添加了4 -
从源代码安装opencv时,如何在pyinstaller中包含OpenCV?
我已从源代码中在Jetson Nano中安装了OpenCV 4.1。当我运行我的python3代码时,它工作完美。使用pyinstaller编 -
更改rootfs文件后,Nvidia Jetson Tx2 apply_binaries.sh错误
<h2>情况说明</h2> <blockquote> Linux驱动程序:linux-tegra-r322 JetPack版本:TX2-jetpack 3.2.1 -
多台计算机的时间同步
我正在解决PC的不同时间同步。 检查ntpq是否使用ntpq将NTP同步到小于1毫秒。我想寻求有关如何不使 -
深度学习模型训练速度非常慢的Jetson Nano
我最近购买了Jetson Nano,对此一切感到惊讶。但是我不知道发生了什么,因为我用keras创建了一个非常简 -
将pytorch与cuda一起使用时视频流缓慢
我正在使用Jetson Xavier(具有maxn config),并且创建了用于视频分析的python多进程应用程序,其中包含以 -
Docker RUN失败,但是在映像中执行相同的命令成功
我正在研究jetson tk1部署方案,在该方案中,我使用docker创建了根文件系统,然后将其闪存到映像上。 -
从串行端口读取Jetson TX2错误(本机提供输入/输出错误)
我正在尝试使用我的Jetson TX2卡上的rfid读取器触发一个狂喜。 (带有ubuntu的aarch64) 1-我下载了所 -
Ubuntu 18.04上的Nvidia Jetson Nano完成了Docker运行,并显示“ exec格式错误”
Ubuntu 18.04上的NVidia Jetson Nano完成了<code>standard_init_linux.go:211: exec user process caused "exec format error"</cod -
Waveshare Jetbot无法启动
我一直在尝试使用WaveShare提供的硬件来构建由Jetson Nano驱动的Jetbot。我按照说明<a href="https://www.waveshare.co -
Jetson TX1图像采集
任何人都可以阐明NVIDIA Jetson TX1的图像获取过程吗?也可以让我知道捕获的图像在Jetson TX1开发板上的位 -
Nvidia Jetson Nano与docker
我正在Nvidia Jetson Nano上运行自定义的Yocto映像,其中包含docker-ce(v19.03.2)。我能够毫无问题地运行Docker -
TF-TRT与UFF-TensorRT
我发现我们可以通过多种方式优化Tensorflow模型。如果我弄错了,请告诉我。 1-使用<a href="https://do -
apt-get install python3-numpy不在python3上安装numpy,但安装在python2.7上
我正在尝试为python3安装numpy,并且在我使用Jetson tx2时使用<code>sudo apt-get install python3-numpy</code>安装numpy。 -
每当我移至新的相同硬件时,如何避免重建15GB-8小时长的PCL库?
我将Jetson TX2板用于PCL和GPU。由于GPU子系统在任何apt-repos上均不可用,因此每次我迁移到新系统时都会被 -
如何在Jetson TX 2上找到OpenCV Build信息(已启用CUDA)
我有一个带opencv和cuda的jetson tx2。但是我不确定opencv是否在启用cuda的情况下构建。这就是我要查找的信 -
错误-丢弃了很多缓冲区-在NVIDIA Jetson Nano上运行ds sdk python示例+ IPcamera时
我已经安装了Deep stream SDK 4.0.2,当我运行python示例时,初始化需要花费几分钟以上的时间,几秒钟后, -
使用TensorRT通过Jetson TX2优化InceptionV4时如何设置参数?
我正在使用Tensor RT优化InceptionV4,这意味着我正在使用冻结的文件。 我收到“内存不足警告”。大多数 -
Nvidia Jetson Nano接口?
我们公司正在开发新的LiDAR系统。我们正在FPGA上进行DSP和各种算法的执行,并且大部分工作都在进行。 -
如何将以bgr8编码的ndarray中的图像数据转换为python中的jpeg图像?
我正在尝试使用jetcam.csi_camera库在jetson nano上使用csi相机捕获图像。库中的read方法返回一个n维数组,并 -
使用jetson nano和rpi相机运行yolov3演示
我正在将<strong> nvidia jetson nano </strong>与rpi相机配合使用,以运行<strong> yolov3 </strong>,我100%确信该相机