Как Hadoop Обрабатывает Большие Данные?
предположим,что пользователь хочет запустить задание в кластере hadoop с первичными данными размером 10 петабайт.как и когда клиентский узел разбивает эти данные на блоки?
Я имею в виду,что поскольку клиент имеет ограниченные ресурсы,пользователь не может загрузить такой большой файл непосредственно на него.он должен скопировать его по частям и ждать, пока клиент сохранит эти части в виде блоков, а затем отправить другие части.
но такая сегментация не упоминается ни в одном из документов, которые я читал.
Как осуществляется этот процесс?