我还看了Google Colab : Local Runtime use
但找不到我需要的答案。
我对利用本地运行时访问数据感兴趣。 我还可以导入我的本地.py文件,以利用已经创建的功能。好。
现在,我想安装基于GPU的库来利用CUDA和colab功能。
但是如果通过pip安装,我会看到它将在我的本地计算机上执行。
相反,我想让事情在远程计算机上执行。
我可以通过本地运行时连接来访问我的数据,而无需将其导入Google云端硬盘,并使用远程GPU实例进行处理吗?
谢谢您的建议,也暗示了“运行时”的体系结构如何工作。