bobboyms's picture
Upload folder using huggingface_hub
26dfd91 verified
import os
import logging
import pyarrow as pa
import pyarrow.parquet as pq
from datasets import load_dataset
# Configuração de logging
logging.basicConfig(
level=logging.INFO,
format="%(asctime)s - %(levelname)s - %(message)s"
)
# Threshold de palavras
WORD_THRESHOLD = 4_000_000_000 # 3 bilhão
def count_words(text: str) -> int:
"""
Conta a quantidade de palavras em `text` de forma eficiente,
usando contagem de espaços para evitar alocações de lista.
Args:
text (str): Texto a ser analisado.
Returns:
int: Número de palavras.
"""
return text.count(" ") + 1 if text else 0
def process_and_write(
dataset,
output_folder: str,
batch_size: int = 100_000
) -> None:
"""
Itera em um `IterableDataset` streaming registro a registro, agrupa em batches,
conta palavras e escreve cada batch em um arquivo Parquet separado.
Para evitar gerar arquivos além do limite, interrompe ao alcançar 1 bilhão de palavras.
Args:
dataset: HuggingFace streaming Dataset.
output_folder (str): Diretório onde serão salvos os arquivos .parquet.
batch_size (int): Número de registros por batch.
"""
# Garante que a pasta exista
os.makedirs(output_folder, exist_ok=True)
batch_records = []
batch_idx = 0
cumulative_words = 0
stop_processing = False
for record in dataset:
batch_records.append(record)
# Ao atingir o tamanho do batch, processa e escreve
if len(batch_records) >= batch_size:
batch_idx += 1
texts = [rec["text"] for rec in batch_records]
word_counts = [count_words(t) for t in texts]
batch_word_sum = sum(word_counts)
table = pa.Table.from_pydict({
"text": texts,
"word_count": word_counts,
})
# Define caminho do arquivo para este batch
file_path = os.path.join(output_folder, f"batch_{batch_idx}.parquet")
pq.write_table(table, file_path)
cumulative_words += batch_word_sum
logging.info(
f"Batch {batch_idx} salvo em '{file_path}': "
f"{len(texts)} registros, {batch_word_sum} palavras, total acumulado: {cumulative_words}"
)
# Verifica threshold
if cumulative_words >= WORD_THRESHOLD:
logging.info(
f"Limite de {WORD_THRESHOLD} palavras atingido. "
f"Parando processamento.")
stop_processing = True
break
batch_records = []
# Processa o lote restante, se houver e se não interrompido
if not stop_processing and batch_records:
batch_idx += 1
texts = [rec["text"] for rec in batch_records]
word_counts = [count_words(t) for t in texts]
batch_word_sum = sum(word_counts)
table = pa.Table.from_pydict({
"text": texts,
"word_count": word_counts,
})
file_path = os.path.join(output_folder, f"batch_{batch_idx}.parquet")
pq.write_table(table, file_path)
cumulative_words += batch_word_sum
logging.info(
f"Batch {batch_idx} (restante) salvo em '{file_path}': "
f"{len(texts)} registros, {batch_word_sum} palavras, total acumulado: {cumulative_words}"
)
logging.info(f"Processamento finalizado. Total de batches: {batch_idx}, palavras totais: {cumulative_words}")
def main() -> None:
"""
Ponto de entrada: carrega o dataset em streaming e chama o processamento.
"""
logging.info("Iniciando processamento e escrita de dados em streaming...")
ds = load_dataset("Itau-Unibanco/aroeira", split="train", streaming=True)
script_dir = os.path.dirname(os.path.abspath(__file__))
output_folder = os.path.join(script_dir, "data")
process_and_write(ds, output_folder)
logging.info("Processamento concluído com sucesso.")
if __name__ == "__main__":
main()