php队列处理几万条数据,PHP循环10万条数据多少时间

在PHP中怎么解决大量数据处理的问题

mysql_query函数查询的方式是查询出全部结果后缓存到内存中,这样就会出现超内存的现象,使用另外一个函数mysql_unbuffered_query可以解决这个问题,mysql_unbuffered_query不会缓存结果集,而是查询出来数据后立马对结果集进行操作,也就是便查询边返回,这样就不会出现超出内存的现象,但是使用mysql_unbuffered_query的是时候不能使用 mysql_num_rows() 和 mysql_data_seek()。并且向 MySQL 发送一条新的 SQL 查询之前,必须提取掉所有未缓存的 SQL 查询所产生的结果行。例如:

成都创新互联专业为企业提供太和网站建设、太和做网站、太和网站设计、太和网站制作等企业网站建设、网页设计与制作、太和企业网站模板建站服务,十年太和做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。

使用缓存结果集的代码:

function selecttest()

{

try {

$pdo = new PDO("mysql:host=localhost;dbname=test", 'root', '123456');

// 不使用缓存结果集方式

// $pdo-setAttribute(PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);

$sth = $pdo-prepare('select * from test');

$sth-execute();

echo '最初占用内存大小:' . memory_get_usage() . "\n";

$i = 0;

while ($result = $sth-fetch(PDO::FETCH_ASSOC)) {

$i += 1;

if ($i 10) {

break;

}

sleep(1);

print_r($result);

echo '占用内存大小:' . memory_get_usage() . "\n";

}

} catch (Exception $e) {

echo $e-getMessage();

}

}

执行时将会报超出内存的错误:

Fatal error: Allowed memory size of 134217728 bytes exhausted (tried to allocate 204800000 bytes) in E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php on line 56

Call Stack:

0.0005 135392 1. {main}() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:0

0.0005 135568 2. test-selecttest() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:85

0.0050 142528 3. PDOStatement-execute() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:56

将上面代码中的$pdo-setAttribute(PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);一行的注释去掉后将不在缓存结果集,这时运行该函数的结果如下:

最初占用内存大小:144808

Array

(

[id] = 1

[a] = v

[b] = w

[c] = i

)

占用内存大小:145544

Array

(

[id] = 2

[a] = b

[b] = l

[c] = q

)

占用内存大小:145544

Array

(

[id] = 3

[a] = m

[b] = p

[c] = h

)

占用内存大小:145536

Array

(

[id] = 4

[a] = j

[b] = i

[c] = b

)

占用内存大小:145536

可以看到,这时返回一条数据内存占用非常的小,也就700多字节,这样就不会出现超出内存的错误了。

几十万条数据用PHP递归能实现无限级分类吗

可以做树状结构,先查询第一层,然后当展开第二层

的时候,用ajax去查询下一层的信息,如果感觉慢的

话可以给表做索引,也可以做分表处理,几十万不是

太大的数据

php怎么使用队列来处理批量采集

首先,队列的作用不是批量处理,而是延时处理,也叫异步处理

要做批量采集的话,首先你要划分好区间,可以用php的多进程,也可以用php的cli模式做,只要数据不窜就行

求 php 循环执行大量数据 解决办法。

你用网页的方式,让人点击,服务器采集,简直是弱爆了。每个人的点击循环1000次,来个100人同时点,你要用的是普通的虚拟机就不行了。

最好是换种方式实现,不要通过网页进行采集。

可以非常简单的在数据库的表,创建一个采集队列,后台执行一个crontab的计划任务,去完成队列里的采集任务。

PHP效率问题,上万条数据一次性取出?还是分开取出处理?

显示数据还是更新(update)数据,都是先处理一部分数据,完成后再处理下一步数据 更有效率。

显示数据取出部分数据的方法最常用的是分页方式,分页是仅读取前面的几十页信息,读取数据库是很快的,可以比较一下10条和100条的显示速度,差很远。

更新(update)数据也不能一次性处理大量数据,那样经常会出现页面死定的情况,可以设置更新一定数据后跳转到下一步再更新一定数据,大多数cms更新数据都是采用这种方式。

无需显示直接读取表内所有数据生成HTML页面时,不论是取出全部数据直接生成有效率,还是一次取出一部分,分别处理有效率。


网页标题:php队列处理几万条数据,PHP循环10万条数据多少时间
网站网址:http://ybzwz.com/article/hdhpde.html