在 PHP 中访问大型数组

2022-08-30 22:26:02

我一直在对PHP中访问大型数据数组的不同方法进行一些分析。用例非常简单:我们的一些工具将数据作为关联数组输出到PHP文件中,这些文件被应用程序视为静态数据。我们制作游戏,因此数据文件的一些示例将包括目录中的项目,用户必须完成的任务或地图的定义:

<?php
$some_data = array(
    ...lots and lots of stuff in here...
);
?>

由于这些数组是大型(400K),并且我们的许多代码都对此数据感兴趣,因此有必要尽可能高效地访问此数据。我确定了3种不同的模式来做到这一点。介绍方法后,我将在下面分享我的结果。

我正在寻找的是一些基于这些方法及其时间的验证经验,以及任何其他尝试的方法。

方法#1:getter函数

在该方法中,导出程序实际上创建了一个如下所示的文件:

<?php
function getSomeData()
{
    $some_data = array(
        ...lots and lots of stuff here...
    );
    return $some_data;
}
?>

然后,客户端代码可以通过在需要时调用 getSomeData() 来获取数据。

方法#2:全局+包含

在此方法中,数据文件看起来与上面的原始代码块相同,但是客户端代码必须跳过几个箍才能将数据放入本地范围。这假设数组位于名为“some_data.php”的文件中;

global $some_data; //must be the same name as the variable in the data file...
include 'some_data.php';

这将使$some_data数组进入范围,尽管对于客户端代码来说有点麻烦(我的观点)。

方法#3:通过引用获取器

此方法与方法 #1 几乎相同,但是 getter 函数不返回值,而是设置对数据的引用。

<?php
function getSomeDataByRef($some_data)
{
    $some_data = array(
        ...lots and lots of stuff here...
    );
    return $some_data;
}
?>

然后,客户端代码通过声明局部变量(称为 anything)并通过引用将其传递给 getter 来检索数据:

$some_data_anyname = array();
getSomeDataByRef(&$some_data_anyname);

结果

因此,我运行了一个小脚本,该脚本运行了这些检索数据1000次的方法,并平均运行时间(由开始和结束时的microtime(true)计算)。以下是我的结果(以毫秒为单位,在MacBookPro 2GHz,8GB RAM,PHP版本5.3.4上运行):

方法#1:

平均值: 0.0031637034416199 MAX: 0.0043289661407471 MIN: 0.0025908946990967

方法#2:

平均值: 0.01434082698822 MAX: 0.018275022506714 MIN: 0.012722969055176

方法#3:

平均值: 0.00335768699646 MAX: 0.0043489933013916 MIN: 0.0029017925262451

无论如何,从这些数据来看,似乎很明显,global+include方法不如其他两种方法,这两种方法的差异“可以忽略不计”。

思潮?我完全错过了什么吗?(可能...)

提前致谢!


答案 1

不确定这是否正是您正在寻找的,但它应该有助于解决速度和内存问题。您可以使用固定的 spl 阵列:

$startMemory = memory_get_usage();
$array = new SplFixedArray(100000);
for ($i = 0; $i < 100000; ++$i) {
    $array[$i] = $i;
}
echo memory_get_usage() - $startMemory, ' bytes';

在此处阅读有关大型php数组的更多信息:http://nikic.github.com/2011/12/12/How-big-are-PHP-arrays-really-Hint-BIG.html

您是否还考虑过将数据存储在缓存/内存中?例如,您可以在第一次执行时使用mysqlite和inmemory引擎,然后从那里访问数据:

$pdo = new PDO('sqlite::memory:');
$pdo->setAttribute(PDO::ATTR_ERRMODE, PDO::ERRMODE_EXCEPTION);
// .. Use PDO as normal

答案 2

对于我的一个没有数据库的项目,我遇到了同样的问题,即加载包含内存中数组的大(大的我的意思是一系列3 MB文件)php文件,我正在寻找最大化性能的选项。我发现了一个非常简单的方法,它在第一次使用时将这些文件缓存在磁盘上作为json。我将加载时间除以 3,并将内存峰值消耗除以 30%。使用json_decode() 加载本地 json 文件比包含数组的大型 php 文件快得多。它还具有作为大多数语言可以直接操作的格式的优点。希望有所帮助。