2017-08-28 91 views
2

我一直在寻找如何在一行中查找值并返回CSV文件中另一列的值。在PHP中短时间解析大型CSV文件

这是我的功能,它工作正常,但在小档案:

function find_user($filename, $id) { 
    $f = fopen($filename, "r"); 
    $result = false; 
    while ($row = fgetcsv($f, 0, ";")) { 
     if ($row[6] == $id) { 
      $result = $row[5]; 
      break; 
     } 
    } 
    fclose($f); 
    return $result; 
} 

的问题是,与我必须工作的实际文件的大小为4GB。而搜索所花的时间是巨大的。

通过堆栈溢出导航,我发现下面的帖子: file_get_contents => PHP Fatal error: Allowed memory exhausted

在那里,他们给我下面的函数(从我的理解),使我更容易搜索巨大的CSV值:

function file_get_contents_chunked($file,$chunk_size,$callback) 
{ 
    try 
    { 
     $handle = fopen($file, "r"); 
     $i = 0; 
     while (!feof($handle)) 
     { 
      call_user_func_array($callback,array(fread($handle,$chunk_size),&$handle,$i)); 
      $i++; 
     } 

     fclose($handle); 

    } 
    catch(Exception $e) 
    { 
     trigger_error("file_get_contents_chunked::" . $e->getMessage(),E_USER_NOTICE); 
     return false; 
    } 

    return true; 
} 

而且使用的方式似乎是以下几点:

$success = file_get_contents_chunked("my/large/file",4096,function($chunk,&$handle,$iteration){ 
    /* 
     * Do what you will with the {&chunk} here 
     * {$handle} is passed in case you want to seek 
     ** to different parts of the file 
     * {$iteration} is the section fo the file that has been read so 
     * ($i * 4096) is your current offset within the file. 
    */ 

}); 

if(!$success) 
{ 
    //It Failed 
} 

的问题是,我不知道如何调整我的初始代码以使用凸起的函数来加速大型CSV中的搜索。我在PHP方面的知识不是很先进。

+0

以4096字节块读取文件可能不会加快速度,因为每次要搜索时都必须通读整个文件。您最好将文件导入数据库一次,并使用数据库快速搜索自身的能力。 – kmoser

+0

尝试在参数2中添加一个长度,其中的值是该行的长度,并查看是否生成差异,例如'''$ row = fgetcsv($ f,1024,“;”)'''' – crafter

回答

2

无论您如何阅读文件,都无法更快地进行搜索,因为您必须在搜索正确的行和列的同时扫描每个字符。最糟糕的情况是,你正在查找的行是文件中的最后一行。

您应该将CSV导入适当的索引数据库并修改您的应用程序以进一步将新记录保存到该数据库而不是CSV文件。

这是一个使用SQLite的基本示例。我创建了一个包含1亿条记录(〜5GB)的CSV文件并进行了测试。

创建一个SQLite数据库并导入CSV文件导入它:

$f = fopen('db.csv', 'r'); 
$db = new SQLite3('data.db'); 
$db->exec('CREATE TABLE "user" ("id" INT PRIMARY KEY, "name" TEXT, 
    "c1" TEXT, "c2" TEXT, "c3" TEXT, "c4" TEXT, "c5" TEXT)'); 
$stmt = $db->prepare('INSERT INTO "user" 
    ("id", "name", "c1", "c2", "c3", "c4", "c5") VALUES (?, ?, ?, ?, ?, ?, ?)'); 
$stmt->bindParam(1, $id, SQLITE3_INTEGER); 
$stmt->bindParam(2, $name, SQLITE3_TEXT); 
$stmt->bindParam(3, $c1, SQLITE3_TEXT); 
$stmt->bindParam(4, $c2, SQLITE3_TEXT); 
$stmt->bindParam(5, $c3, SQLITE3_TEXT); 
$stmt->bindParam(6, $c4, SQLITE3_TEXT); 
$stmt->bindParam(7, $c5, SQLITE3_TEXT); 
$db->exec('BEGIN TRANSACTION'); 
while ($row = fgetcsv($f, 0, ';')) { 
    list($c1, $c2, $c3, $c4, $c5, $name, $id) = $row; 
    $stmt->execute(); 
} 
$db->exec('COMMIT'); 

这需要很长的时间,在15分钟内我的电脑上,从而产生一个6.5GB的文件。从数据库

搜索:

$id = 99999999; 
$db = new SQLite3('data.db'); 
$stmt = $db->prepare('SELECT "name" FROM "user" WHERE "id" = ?'); 
$stmt->bindValue(1, $id, SQLITE3_INTEGER); 
$result = $stmt->execute(); 
print_r($result->fetchArray()); 

这实际上执行instantenously。