[求助]DZ迁移数据老是各种语法错误
4G左右的sql文件用phpmyadmin太大导不进去 超时用linux命令导入各种语法错误..说什么xxx重复
ERROR 1064 (42000)
ERROR 1062 (23000)
最后用宝塔导进去又有问题会有一部分用户数据没有了显示 XXXX该用户已被删除
求助各位18cm
static/image/smiley/yct/002.gif
在 phpMyAdmin 导入 MySQL 数据库时,如果文件较大,可能会遇到超时问题。以下是解决方法:
方法 1:修改 php.ini 配置(适用于本地环境或有服务器管理权限)
如果你可以修改 PHP 配置文件(php.ini),可以调整以下参数:
ini
复制
编辑
upload_max_filesize = 512M; 增大上传文件大小
post_max_size = 512M ; 增大 POST 请求大小
max_execution_time = 3000 ; 允许脚本执行时间更长
max_input_time = 3000 ; 允许输入解析时间更长
memory_limit = 512M ; 提高 PHP 运行的内存限制
修改后,重启 Web 服务器(Apache/Nginx)。
方法 2:修改 phpMyAdmin 配置(适用于本地或有权限的服务器)
在 config.inc.php 里添加/修改:
php
复制
编辑
$cfg['ExecTimeLimit'] = 0;// 取消执行时间限制
这样可以让导入时间不受限制。
方法 3:使用 MySQL 命令行导入(适用于有 SSH 或终端访问权限)
如果 phpMyAdmin 导入不成功,可以用命令行导入:
bash
复制
编辑
mysql -u 用户名 -p 数据库名 < 导入文件.sql
示例:
bash
复制
编辑
mysql -u root -p mydb < backup.sql
然后输入 MySQL 密码即可开始导入。
方法 4:使用 MySQL Workbench 导入
如果你用的是 GUI 工具,可以尝试 MySQL Workbench,它支持更大文件的导入,并且不会受到 phpMyAdmin 限制。
方法 5:分割 SQL 文件
如果 SQL 文件太大,可以手动或用工具拆分成多个小文件逐个导入,避免超时。
你可以尝试上面的方案,看哪种最适合你的环境。 试试navicat
页:
[1]