Изменения

Перейти к: навигация, поиск

Простой FTL для флешек

15 276 байтов добавлено, 12:07, 20 января 2014
м
Запись
SSD содержат «умный» FTL; USB-флешки и карты памяти содержат «тупой» FTL. Засчёт «тупости» последнего случайная запись сводится к полной перезаписи отдельных Erase Unit’ов, и поэтому происходит ОЧЕНЬ медленно — обычно 2-3 операции в секунду.
 
== Идея ==
'''Идея:''' реализовать простой FTL, пригодный к использованию поверх «тупого» флешечного, в виде драйвера на уровне ОС (модуля Linux). Назвать, например, SFTL. Смысл в том, чтобы не тащить лог-структурированность на уровень файловой системы, как это делается сейчас в JFFS2/UBIFS/LogFS/NILFS/F2FS, а, аналогично SSD’шкам, реализовать это в виде отдельного уровня, по сути, превращающего любую файловую систему в лог-структурированную, и кардинального ускоряющего случайную запись.
Плюсы такой идеи:
* Реализация проще Главный плюс — реализация относительно проста засчёт отсутствия необходимости писать код и утилиты ФС. А то, блин, из всех вышеперечисленных ФС fsck только недавно появился для наиболее свежей F2FS.* Поверх транслированного устройства можно использовать любую обычную файловую систему. Или даже не файловую систему, а, например, raw tablespace для СУБД. Хотя это может потребовать дополнительных фич — например, барьеров.* В принципе, с небольшими изменениями можно использовать почти идентичные реализации одну и ту же реализацию FTL для MTD и для USB-флешек.* Если захочется, можно относительно несложно реализовать снимки ФС, аналогично LVM’ской реализации — патчи в код ФС, позволяющие приостановить запись и в заданный момент времени получить консистентное состояние записанных данных и метаданных, в коде ядра уже есть.
Минусы идеи:
* Очень Главный минус — дублирование кода аллокатора блоков между FTL и файловой системой, ведь карты распределения блоков УЖЕ есть у файловой системы в виде информации о том, какие блоки каким файлам принадлежат. Это ведёт к следующим проблемам:** Двойной расход занятого места на устройстве и в оперативной памяти.** Двойной объём работы, выполняемый процессором. В общем, эти накладные расходы всегда есть и в SSD’шках — но там они выполняются на отдельном процессоре и работе основной системы не мешают.** Худшая статистика — для FTL доступна только статистика на уровне блоков, в то время, как файловая система располагает статистикой на уровне файлов, каталогов и т. п. и потенциально может лучше прогнозировать правильное размещение блоков.* Это, в некотором смысле, «велосипедик», частично повторяющий, например, функционал самсунговской F2FS. Частично повторяет и функционал других лог-структурированных ФС, но их можно не рассматривать — они сделаны исключительно под MTD и на блочных девайсах не работают.* Аналогично SSD, очень желательно использовать реализовать TRIM ⇒ от и очень желательно, чтобы ФС нужна , гоняемая поверх SFTL, его поддержкаподдерживала. Хотя это, возможно, и не проблема вовсе — многие ФС в Linux, в том числе ext4 , xfs и даже VFAT в Linux , его поддерживают, а что ещё нужно джентльмену?* Сжатие и снимки Сложнее реализовать сложно, так как эти фичи требуют взаимодействия с файловой системой. Сжатие прозрачное сжатие — оно требует от , чтобы при выделении блоков ФС понимания реального количества оставшегося понимала, сколько на устройстве реально осталось свободного места. С другой стороны, а снимки требуют от если код ФС возможности создать запатчить — в заданный момент времени консистентное состояние записанных данных и метаданных.* Хранение карт отображения ниже уровня ФС приводит к дополнительным накладным расходам — тратится часть места на устройствепринципе, можно реализовать и используется дополнительная оперативная памятьсжатие.
== Типичная скорость работы флешек ==
 
Детальное описание внутреннего устройства флешек и карточек памяти есть здесь: https://wiki.linaro.org/WorkingGroups/KernelArchived/Projects/FlashCardSurvey
* Скорость случайного чтения любыми блоками идентична скорости последовательного чтения. То есть, случайное чтение '''быстрое'''.
* Последовательная запись блоками по <WRITE UNIT> Кб или большими примерно в 2 раза медленнее чтения такими же блоками. Типичный WRITE UNIT = 32 Кб.
* Последовательная запись блоками, меньшими <WRITE UNIT> примерно в 4 раза медленнее чтения такими же блоками.
* Erase Unit составляет обычно 1/2/4 Мб, а может составлять иногда и больше. Естественно, команды ERASE у USB-флешек нет, но размер блока стирания легко определить, варьируя размер блока при случайной записи.* Без потерь в скорости можно вести запись в некий <LIMIT> активных регионов. LIMIT всегда мал, типичное значение — 6.
* Скорость случайной записи '''очень''' низка и, независимо от размера блока, составляет обычно 2-3 операции записи в секунду, так как в реальности почти каждая операция ведёт к перезаписи целого Erase Unit’а. При размере блока в 512 байт скорость случайной записи составит всего лишь 1-2 килобайта в секунду!
* Наилучшая скорость и чтения/, и последовательной записи достигается при размере блока &ge; <WRITE UNIT>. Скорость чтения (любого — последовательного, случайного) блоками размера <WRITE UNIT> составляет обычно мегабайты в секунду — 6-12 Мб/с. Отличия флешек от MTD с точки зрения FTL:* На MTD можно с одинаковой скоростью писать в любой стёртый сектор (что, разумеется, удобнее). На флешках так делать нельзя, а можно держать лишь максимум LIMIT (~6) активных регионов.* Зато при записи на флешки можно не обращать внимания на Erase Unit’ы — этим занимается её внутренний FTL. Если конкретно:** Можно очищать блоки мелкими порциями, в то время, как на MTD нужно очищать и стирать Erase Unit целиком. Размер сегмента, не кратный размеру Erase Unit (как в прошлых идеях — 128.5 Кб), использовать при этом можно — просто потребуется при очистке затрагивать ещё и пограничные сегменты.** Можно не делать динамического Wear-Leveling’а (то есть WL перезаписываемых данных) на уровне блоков стирания — флешечный FTL делает это сам. Однако, флешки обычно не двигают статические данные, поэтому может потребоваться Static Wear Leveling. Кроме того, отдельные кластеры внутри всех блоков стирания должны записываться равномерно — нельзя, например, всегда записывать 1-ый сектор каждого Erase Unit’а в 10 раз чаще остальных.
== Структура хранения ==
* SFTL использует Предлагается использовать кластеры по 4096 байт (8 физических секторов).* Виртуальные адреса кластеров отображаются отображать на физические, кластер . Кластер может находиться в любом месте флешки.* Данные отображения каждого кластера содержат его физический адрес, виртуальный адрес, и номер версии, магическое число (magic) и контрольную сумму, что вместе составляет 12 байт и лимитирует объём устройства 2^44 байт, то есть 16 байтТб. При перезаписи кластера старая версия не удаляется — просто записывается новая с увеличенным на 1 номером версии; кроме того, номер версии позволяет понять, в каких секторах лежат «горячие» данные, а в каких «холодные». В одном 512-байтном блоке помещаются карты для 42 кластеров + контрольная сумма. Таким образом, карты всех блоков занимают примерно 3/1024 ёмкости диска.* Карты В самом начале диска находится суперблок; далее сохраняются карты отображения перемешиваются , с даннымиокруглением занятого пространства вверх до размера Erase Unit’а. Информация об отображении 1 кластера занимает 16 байт, следовательно, в 1 сектор (512 байт) входит информация об N=32 кластерах. Совокупность 32 кластеров с данными и 1 индексного сектора называется сегментомБлагодаря наличию динамического WL внутри флешки частая перезапись этих первых Erase Unit’ов пугать нас не должна.* Вся флешка состоит из сегментов. То естьКарты записываются последовательно, на ней чередуются последовательности по 128 кб данных и 512 байт «индекса»данные также записываются последовательно. Следовательно, индекс занимает 1/256 всей памяти, что составляет 4 Мб на 1 Гб* Если будет нужен статический WL — нужно также хранить количество стираний каждого Erase Unit’а.
== Алгоритм работы ==
=== Монтирование ===
При монтировании все карты читаются с диска читается весь индекс, то есть каждый 257-ой сектор, и все карты сохраняются в оперативной памяти (физический кластер -> виртуальный кластер; виртуальный кластер -> {физический кластер, версия}) сохраняются в оперативной памяти. Произвольное чтение с флеш-памятиКарт не очень много, будь то FTL’нутая USB-флешка или голый MTD (Memory Type Device), быстрое, следовательнозначит, монтирование тоже происходит довольно быстро. Минус в том, что индекс нужно держать вся эта петрушка занимает в оперативной памяти, а занимает он примерно те же 3 мб на каждый 1 гб данных/1024 объёма диска, что составляет уже 192 мб на 64-гигабайтную флешку — довольно много. То есть, применение ограничивается размером потребляемой оперативной памяти — памяти… всё как в SSD.
Для больших устройств теоретически можно увеличить размер кластера, скажем, до 64 кб — тогда индекс будет занимать в 16 раз меньше — всего 12 мб на 64 гб флешку. При этом, однако, потребуется ФС с таким же размером блока, а в Linux, кроме VFAT, подобных, по сути, нет — есть только ext4 с bigalloc’ом, который до сих пор глючит. Хотя, в принципе, для флешек и FAT вполне подходит.
Второй и сильно более сложный вариант снижения потребления памяти — поддерживать карту виртуальных кластеров в специально отведённом наборе ''виртуальных'' же кластеров (то есть, например, в начале ''виртуального'' диска), а в оперативной памяти сохранять только карты этих «индексных» кластеров. Остальные карты читать по требованию, кэшируя заданное их число в оперативной памяти. Засчёт высокой скорости случайного чтения значительного снижения производительности чтения при этом, теоретически, быть не должно. Минусом, однако, является то, что опять-таки теоретически, в наихудшем случае, из-за необходимости при перезаписи каждого кластера ещё и сбрасывать на диск обновлённую карту, скорость записи может упасть в 3 раза. Это если перезапись каждого кластера приведёт к перезаписи части карт (хранимых такими же кластерами), а перезапись части карт приведёт к перезаписи карт для карт (опять-таки хранимых такими же кластерами). Сия проблема типична для лог-структурированных ФС и называется «wandering tree update».
=== Чтение ===
Чтение простое — нужно просто определять реальное положение каждого считываемого кластера и читать соответствующие блоки с нижележащего устройства. Либо, если Если кластер TRIM’нут или ещё не сопоставлен реальному, возвращать нули.
=== Запись ===
При записи новой версии кластер, содержащий предыдущую, не очищается, а просто помечается как свободный. Даже при следующем монтировании он будет считаться свободным, так как содержит старую версию блока.
Центральная идея всего SFTL — любого FTL — превращение случайной записи в более-менее последовательную. Условно говоря, драйвер должен использовать флешку как кольцевой буфер, всё время записывая новые версии кластеров в следующий свободный сегмент, и после конца снова переходя в начало флешки. То есть, в идеале запись должна происходить в связное свободное местоErase Unit. Со временем это, очевидно, приводит к фрагментации свободного пространства — пространства внутри Erase Unit’ов — следовательно, появляются две проблемы:# Запись запись из последовательной может снова превратиться в случайную.# В Цена пропуска сектора ''внутри'' одного Erase Unit’а примерно равна цене его записи. Так как если бы мы его записали, то с одного стирания (занимающего большую часть времени) мы бы «сняли» на единицу больше записанных секторов. ''Целые'' Erase Unit’ы при этом можно пропускать вполне свободно (какойиз них «открыть» следующим — флешке пофигу). То есть, «цена» записи в частично занятый сегмент такая же, как и на «голом» MTD — там занятые секторы нужно сначала куда-то переместить, и это занимает такое же время. Проблема очистки, на самом деле, общая для всех лог-структурированных устройств («cleaning overhead»). Выхода два:* Скидывать работу по очистке блоков на свободное время путём добавления сборщика мусора. Объём работы (Write Amplification) это не уменьшает (может даже увеличивать), но распределяет её во времени. Типичные стратегии сборки мусора: жадная (очистка наиболее легко очищаемого сегмента), по возрасту (очистка наиболее старых сегментов), на основе оценки стоимости (cost-based — совмещает лёгкость очистки и возраст).* Пытаться магическим образом предсказать, какие данные ''будут'' перезаписаны, а какие ''не будут''. Например, пытаться при записи разделять «холодные» и «горячие» данные. Ибо теоретически, чем лучше они разделены, тем больше вероятность того, что в сегменте все блоки будут устаревать вместе &rArr; его будет проще очищать. Голый MTD с точки зрения данного алгоритма отличается от флешки тем, что перед началом записи занятые блоки нужно куда-то переместить, а сегмент — стереть. Но зато при перемещении мы можем без лишних затрат бороться с фрагментацией, группируя блоки по возрасту (так как операция «открытия» блока не занимает времени и писать можно в любой стёртый сектор). А если, например, флешку записать целиком, а потом много раз перезаписывать каждый второй сектор — мы получим 50 % свободного места в каждом сегменте, и ничего не сможем с этим поделать без лишних затрат времени ''перед началом записи''. Конкретно, если перемещать сектора — в самом худшем случае мы можем затратить вплоть до (N-1) стираний, где N — число секторов в сегменте. Чтобы подобным образом бороться с фрагментацией на флешке — перемещать блоки из частично занятых секторов нужно перед окончанием записи в сегмент — в тот момент , когда в записываемом сегменте остаётся нужный объём пространства. Но в худшем случае это ограничивает перемещение числом свободных секторов в записываемом сегменте. Итого, что же делать с фрагментацией нам? Ответ — выбирать сегмент на основе оценки стоимости и возраста данных. Идея простая — стоимость очистки блока, в который мы будем писать, в точности равна числу занятых в нём секторов, следовально, для записи надо выбирать максимально свободный сегмент (в идеале — совсем свободный). Однако:* Вместо того, чтобы бросаться перезаписывать сегмент, может оказатьсялучше немного подождать, и оставшиеся блоки в нём «протухнут» сами (и мы сможем записать аж целый сегмент). При этом мы проигрываем разницу в числе свободных секторов сейчас, но выигрываем число секторов, которые «протухнут» сами, потом. Откуда следует, что сегментовделать такую оптимизацию имеет смысл только для блоков, свободных которые в ближайшее время с большой вероятностью будут перезаписаны.* Вместо того, чтобы писать блок в произвольный выбранный сегмент, лучше группировать его вместе с блоками, близкими к нему по возрасту. Для этого вместо одного «активного сегмента» таковых помнить нужно несколько (<= лимиту числа открытых на запись блоков на флешке минус один, необходимый под индекс). В качестве каждого активного сегмента нужно выбирать либо любой пустой, либо ближайший по среднему возрасту сохранённых в нём логических блоков к центру группы, построенному с помощью K-средних.* Вместо того, чтобы записывать сегмент целиком, нет вообщеможет оказаться лучше оставить в нём немного места и переместить туда близкие по возрасту данные, хотя извлечённые из частично свободного места сегмента — то есть, сделать дефрагментацию в процессе записи. Таким образом, при этом вполне хватаетвыборе кластера для записи блока мы имеем два критерия качества: (основной) число свободных блоков и (дополнительный) близость среднего возраста к центру выбранной для записи блока группы K-средних.Комбинировать их нужно примерно так — если считать, что разница в возрасте блоков в сегменте потенциально может привести к тому, что к моменту, когда мы будем его перезаписывать, более старые блоки (ранее перезаписанные меньшее число раз), вероятно, ещё не будут перезаписаны, а более новые уже будут. То есть можно считать, что «цена» записи в частично занятый сегмент больше на число блоков, относящихся к более старой возрастной группе, чем записываемый. Можно этот показатель ещё домножить на некий варьируемый коэффициент. Следует отметить, что наш индекс со временем тоже становится фрагментированным, и из-за TRIM его фрагментация может вовсе не соответствовать фрагментации самого устройства с данными. А уже в дополнение к вышеописанному алгоритму можно добавить и фоновый сборщик мусора, хотя бы с жадной стратегией. При записи блока:# Обновление классификации:#* Если блок был уже записан ранее — вычитаем его возраст из суммы возрастов его группы, и уменьшаем число блоков в ней на 1.#* Увеличиваем возраст блока на 1.#* Если есть пустые группы и возраст не равен в точности среднему возрасту ни одной из непустых групп, относим блок к первой пустой группе.#* Если пустых групп нет — выбираем группу, средний возраст которой наиболее близок к возрасту блока. Если таких несколько — выбираем группу с максимальным возрастом.#* Обновляем центр выбранной группы, то есть добавляем новый возраст к сумме возрастов и увеличиваем число блоков в группе на 1.# Выбираем сегмент для записи:#* Если для выбранной группы уже есть открытый сегмент — пишем в него.#* Если нет — ищем сегмент, в котором минимально (число_занятых_блоков + коэффициент_возраста*число_занятых_блоков_более_старых_групп) и пишем в него.# В момент, когда после записи в сегменте остаётся меньше, чем (коэффициент_дефрагментации*число_изначально_занятых_блоков_сегмента), разрешается сделать дефрагментацию на лету и переместить в текущий сегмент какие-нибудь блоки, например, блоки из сегментов, имеющих максимальный разброс возрастов. === TRIM === При TRIM занятого блока в индекс сохраняется запись о его отображении на физический сектор 0. === Барьеры / сброс данных на диск ===
Всякая хрень типа СУБД может иногда (2при коммите транзакций) Решить относительно легко. Тупейший вариант — это, не обращая внимания требовать гарантированной отправки данных на фрагментацию, всегда писать в первый доступный свободный кластердиск. Производительность записи Если сегмент при этом будет падать приблизительно на количество пропущенных при записи (занятых) кластеров внутри каждого Erase Unit’аещё не заполнился, его нужно записать неполным, а когда заполнится — перезаписать ещё раз. То есть цена пропуска кластера примерно равна цене его записиЭто гораздо дешевле, так как большую часть времени записи занимает стираниечем оставлять фрагментированный сегмент.
Более сложный вариант решения=== Дополнительная идея: зарезервировать N-1 сегментов и следить, чтобы кроме зарезервированных всегда был как минимум один свободный сегмент. При записи, когда число свободных сегментов будет становится равным N-1, искать и дефрагментировать ближайшие частично свободные сегменты. Резерв нужен для того, чтобы даже в худшем случае дефрагментация удалась. Худший случай — это сборка свободного сегмента из N сегментов, в каждом из которых свободен только 1 кластер — чтобы вместить данные из этих N сегментов, очевидно, нужен N-1 свободный. Цена перемещения данных равна времени их чтения + записи.сжатие ===
С (1) — проблемой фрагментации в целом, общей для всех лог-структурированных ФС — ситуация посложнее. Методы борьбы с ней, в принципе, придуманы. F2FS, например, (а) использует фоновый сборщик мусора (б) пытается разделять запись «холодные», «средние» и «горячие» блоки и (в) пытается чуть умнее обычного выбирать кластер при сборке мусора.== Ссылки ==
== Дополнительная идея* Детальное описание внутреннего устройства флешек и карточек памяти есть здесь: сжатие ==https://wiki.linaro.org/WorkingGroups/KernelArchived/Projects/FlashCardSurvey* Несколько реализаций FTL для MTD есть в проекте OpenSSD, см. например https://github.com/ClydeProjects/OpenSSD/blob/clyde-dev/ftl_dac/ftl.c* Есть куча статей и идей по алгоритмам распределения пространства и сборки мусора на SSD. См. например http://www.openssd-project.org/wiki/Team_Sirius_:_FeGC и разные статьи в гугле.

Навигация