xref: /qemu/block/qed-check.c (revision bba667da)
101979a98SStefan Hajnoczi /*
201979a98SStefan Hajnoczi  * QEMU Enhanced Disk Format Consistency Check
301979a98SStefan Hajnoczi  *
401979a98SStefan Hajnoczi  * Copyright IBM, Corp. 2010
501979a98SStefan Hajnoczi  *
601979a98SStefan Hajnoczi  * Authors:
701979a98SStefan Hajnoczi  *  Stefan Hajnoczi   <stefanha@linux.vnet.ibm.com>
801979a98SStefan Hajnoczi  *
901979a98SStefan Hajnoczi  * This work is licensed under the terms of the GNU LGPL, version 2 or later.
1001979a98SStefan Hajnoczi  * See the COPYING.LIB file in the top-level directory.
1101979a98SStefan Hajnoczi  *
1201979a98SStefan Hajnoczi  */
1301979a98SStefan Hajnoczi 
1480c71a24SPeter Maydell #include "qemu/osdep.h"
15e2c1c34fSMarkus Armbruster #include "block/block-io.h"
1601979a98SStefan Hajnoczi #include "qed.h"
1701979a98SStefan Hajnoczi 
1801979a98SStefan Hajnoczi typedef struct {
1901979a98SStefan Hajnoczi     BDRVQEDState *s;
2001979a98SStefan Hajnoczi     BdrvCheckResult *result;
2101979a98SStefan Hajnoczi     bool fix;                           /* whether to fix invalid offsets */
2201979a98SStefan Hajnoczi 
2319dfc44aSStefan Hajnoczi     uint64_t nclusters;
2401979a98SStefan Hajnoczi     uint32_t *used_clusters;            /* referenced cluster bitmap */
2501979a98SStefan Hajnoczi 
2601979a98SStefan Hajnoczi     QEDRequest request;
2701979a98SStefan Hajnoczi } QEDCheck;
2801979a98SStefan Hajnoczi 
qed_test_bit(uint32_t * bitmap,uint64_t n)2901979a98SStefan Hajnoczi static bool qed_test_bit(uint32_t *bitmap, uint64_t n) {
3001979a98SStefan Hajnoczi     return !!(bitmap[n / 32] & (1 << (n % 32)));
3101979a98SStefan Hajnoczi }
3201979a98SStefan Hajnoczi 
qed_set_bit(uint32_t * bitmap,uint64_t n)3301979a98SStefan Hajnoczi static void qed_set_bit(uint32_t *bitmap, uint64_t n) {
3401979a98SStefan Hajnoczi     bitmap[n / 32] |= 1 << (n % 32);
3501979a98SStefan Hajnoczi }
3601979a98SStefan Hajnoczi 
3701979a98SStefan Hajnoczi /**
3801979a98SStefan Hajnoczi  * Set bitmap bits for clusters
3901979a98SStefan Hajnoczi  *
4001979a98SStefan Hajnoczi  * @check:          Check structure
4101979a98SStefan Hajnoczi  * @offset:         Starting offset in bytes
4201979a98SStefan Hajnoczi  * @n:              Number of clusters
4301979a98SStefan Hajnoczi  */
qed_set_used_clusters(QEDCheck * check,uint64_t offset,unsigned int n)4401979a98SStefan Hajnoczi static bool qed_set_used_clusters(QEDCheck *check, uint64_t offset,
4501979a98SStefan Hajnoczi                                   unsigned int n)
4601979a98SStefan Hajnoczi {
4701979a98SStefan Hajnoczi     uint64_t cluster = qed_bytes_to_clusters(check->s, offset);
4801979a98SStefan Hajnoczi     unsigned int corruptions = 0;
4901979a98SStefan Hajnoczi 
5001979a98SStefan Hajnoczi     while (n-- != 0) {
5101979a98SStefan Hajnoczi         /* Clusters should only be referenced once */
5201979a98SStefan Hajnoczi         if (qed_test_bit(check->used_clusters, cluster)) {
5301979a98SStefan Hajnoczi             corruptions++;
5401979a98SStefan Hajnoczi         }
5501979a98SStefan Hajnoczi 
5601979a98SStefan Hajnoczi         qed_set_bit(check->used_clusters, cluster);
5701979a98SStefan Hajnoczi         cluster++;
5801979a98SStefan Hajnoczi     }
5901979a98SStefan Hajnoczi 
6001979a98SStefan Hajnoczi     check->result->corruptions += corruptions;
6101979a98SStefan Hajnoczi     return corruptions == 0;
6201979a98SStefan Hajnoczi }
6301979a98SStefan Hajnoczi 
6401979a98SStefan Hajnoczi /**
6501979a98SStefan Hajnoczi  * Check an L2 table
6601979a98SStefan Hajnoczi  *
6701979a98SStefan Hajnoczi  * @ret:            Number of invalid cluster offsets
6801979a98SStefan Hajnoczi  */
qed_check_l2_table(QEDCheck * check,QEDTable * table)6901979a98SStefan Hajnoczi static unsigned int qed_check_l2_table(QEDCheck *check, QEDTable *table)
7001979a98SStefan Hajnoczi {
7101979a98SStefan Hajnoczi     BDRVQEDState *s = check->s;
7201979a98SStefan Hajnoczi     unsigned int i, num_invalid = 0;
7311c9c615SDong Xu Wang     uint64_t last_offset = 0;
7401979a98SStefan Hajnoczi 
7501979a98SStefan Hajnoczi     for (i = 0; i < s->table_nelems; i++) {
7601979a98SStefan Hajnoczi         uint64_t offset = table->offsets[i];
7701979a98SStefan Hajnoczi 
7821df65b6SAnthony Liguori         if (qed_offset_is_unalloc_cluster(offset) ||
7921df65b6SAnthony Liguori             qed_offset_is_zero_cluster(offset)) {
8001979a98SStefan Hajnoczi             continue;
8101979a98SStefan Hajnoczi         }
8211c9c615SDong Xu Wang         check->result->bfi.allocated_clusters++;
8311c9c615SDong Xu Wang         if (last_offset && (last_offset + s->header.cluster_size != offset)) {
8411c9c615SDong Xu Wang             check->result->bfi.fragmented_clusters++;
8511c9c615SDong Xu Wang         }
8611c9c615SDong Xu Wang         last_offset = offset;
8701979a98SStefan Hajnoczi 
8801979a98SStefan Hajnoczi         /* Detect invalid cluster offset */
8901979a98SStefan Hajnoczi         if (!qed_check_cluster_offset(s, offset)) {
9001979a98SStefan Hajnoczi             if (check->fix) {
9101979a98SStefan Hajnoczi                 table->offsets[i] = 0;
92ccf34716SKevin Wolf                 check->result->corruptions_fixed++;
9301979a98SStefan Hajnoczi             } else {
9401979a98SStefan Hajnoczi                 check->result->corruptions++;
9501979a98SStefan Hajnoczi             }
9601979a98SStefan Hajnoczi 
9701979a98SStefan Hajnoczi             num_invalid++;
9801979a98SStefan Hajnoczi             continue;
9901979a98SStefan Hajnoczi         }
10001979a98SStefan Hajnoczi 
10101979a98SStefan Hajnoczi         qed_set_used_clusters(check, offset, 1);
10201979a98SStefan Hajnoczi     }
10301979a98SStefan Hajnoczi 
10401979a98SStefan Hajnoczi     return num_invalid;
10501979a98SStefan Hajnoczi }
10601979a98SStefan Hajnoczi 
10701979a98SStefan Hajnoczi /**
10801979a98SStefan Hajnoczi  * Descend tables and check each cluster is referenced once only
10901979a98SStefan Hajnoczi  */
11088095349SEmanuele Giuseppe Esposito static int coroutine_fn GRAPH_RDLOCK
qed_check_l1_table(QEDCheck * check,QEDTable * table)11188095349SEmanuele Giuseppe Esposito qed_check_l1_table(QEDCheck *check, QEDTable *table)
11201979a98SStefan Hajnoczi {
11301979a98SStefan Hajnoczi     BDRVQEDState *s = check->s;
11401979a98SStefan Hajnoczi     unsigned int i, num_invalid_l1 = 0;
11501979a98SStefan Hajnoczi     int ret, last_error = 0;
11601979a98SStefan Hajnoczi 
11701979a98SStefan Hajnoczi     /* Mark L1 table clusters used */
11801979a98SStefan Hajnoczi     qed_set_used_clusters(check, s->header.l1_table_offset,
11901979a98SStefan Hajnoczi                           s->header.table_size);
12001979a98SStefan Hajnoczi 
12101979a98SStefan Hajnoczi     for (i = 0; i < s->table_nelems; i++) {
12201979a98SStefan Hajnoczi         unsigned int num_invalid_l2;
12301979a98SStefan Hajnoczi         uint64_t offset = table->offsets[i];
12401979a98SStefan Hajnoczi 
12521df65b6SAnthony Liguori         if (qed_offset_is_unalloc_cluster(offset)) {
12601979a98SStefan Hajnoczi             continue;
12701979a98SStefan Hajnoczi         }
12801979a98SStefan Hajnoczi 
12901979a98SStefan Hajnoczi         /* Detect invalid L2 offset */
13001979a98SStefan Hajnoczi         if (!qed_check_table_offset(s, offset)) {
13101979a98SStefan Hajnoczi             /* Clear invalid offset */
13201979a98SStefan Hajnoczi             if (check->fix) {
13301979a98SStefan Hajnoczi                 table->offsets[i] = 0;
134ccf34716SKevin Wolf                 check->result->corruptions_fixed++;
13501979a98SStefan Hajnoczi             } else {
13601979a98SStefan Hajnoczi                 check->result->corruptions++;
13701979a98SStefan Hajnoczi             }
13801979a98SStefan Hajnoczi 
13901979a98SStefan Hajnoczi             num_invalid_l1++;
14001979a98SStefan Hajnoczi             continue;
14101979a98SStefan Hajnoczi         }
14201979a98SStefan Hajnoczi 
14301979a98SStefan Hajnoczi         if (!qed_set_used_clusters(check, offset, s->header.table_size)) {
14401979a98SStefan Hajnoczi             continue; /* skip an invalid table */
14501979a98SStefan Hajnoczi         }
14601979a98SStefan Hajnoczi 
14701979a98SStefan Hajnoczi         ret = qed_read_l2_table_sync(s, &check->request, offset);
14801979a98SStefan Hajnoczi         if (ret) {
14901979a98SStefan Hajnoczi             check->result->check_errors++;
15001979a98SStefan Hajnoczi             last_error = ret;
15101979a98SStefan Hajnoczi             continue;
15201979a98SStefan Hajnoczi         }
15301979a98SStefan Hajnoczi 
15401979a98SStefan Hajnoczi         num_invalid_l2 = qed_check_l2_table(check,
15501979a98SStefan Hajnoczi                                             check->request.l2_table->table);
15601979a98SStefan Hajnoczi 
15701979a98SStefan Hajnoczi         /* Write out fixed L2 table */
15801979a98SStefan Hajnoczi         if (num_invalid_l2 > 0 && check->fix) {
15901979a98SStefan Hajnoczi             ret = qed_write_l2_table_sync(s, &check->request, 0,
16001979a98SStefan Hajnoczi                                           s->table_nelems, false);
16101979a98SStefan Hajnoczi             if (ret) {
16201979a98SStefan Hajnoczi                 check->result->check_errors++;
16301979a98SStefan Hajnoczi                 last_error = ret;
16401979a98SStefan Hajnoczi                 continue;
16501979a98SStefan Hajnoczi             }
16601979a98SStefan Hajnoczi         }
16701979a98SStefan Hajnoczi     }
16801979a98SStefan Hajnoczi 
16901979a98SStefan Hajnoczi     /* Drop reference to final table */
17001979a98SStefan Hajnoczi     qed_unref_l2_cache_entry(check->request.l2_table);
17101979a98SStefan Hajnoczi     check->request.l2_table = NULL;
17201979a98SStefan Hajnoczi 
17301979a98SStefan Hajnoczi     /* Write out fixed L1 table */
17401979a98SStefan Hajnoczi     if (num_invalid_l1 > 0 && check->fix) {
17501979a98SStefan Hajnoczi         ret = qed_write_l1_table_sync(s, 0, s->table_nelems);
17601979a98SStefan Hajnoczi         if (ret) {
17701979a98SStefan Hajnoczi             check->result->check_errors++;
17801979a98SStefan Hajnoczi             last_error = ret;
17901979a98SStefan Hajnoczi         }
18001979a98SStefan Hajnoczi     }
18101979a98SStefan Hajnoczi 
18201979a98SStefan Hajnoczi     return last_error;
18301979a98SStefan Hajnoczi }
18401979a98SStefan Hajnoczi 
18501979a98SStefan Hajnoczi /**
18601979a98SStefan Hajnoczi  * Check for unreferenced (leaked) clusters
18701979a98SStefan Hajnoczi  */
qed_check_for_leaks(QEDCheck * check)18801979a98SStefan Hajnoczi static void qed_check_for_leaks(QEDCheck *check)
18901979a98SStefan Hajnoczi {
19001979a98SStefan Hajnoczi     BDRVQEDState *s = check->s;
19119dfc44aSStefan Hajnoczi     uint64_t i;
19201979a98SStefan Hajnoczi 
19301979a98SStefan Hajnoczi     for (i = s->header.header_size; i < check->nclusters; i++) {
19401979a98SStefan Hajnoczi         if (!qed_test_bit(check->used_clusters, i)) {
19501979a98SStefan Hajnoczi             check->result->leaks++;
19601979a98SStefan Hajnoczi         }
19701979a98SStefan Hajnoczi     }
19801979a98SStefan Hajnoczi }
19901979a98SStefan Hajnoczi 
200b10170acSStefan Hajnoczi /**
201b10170acSStefan Hajnoczi  * Mark an image clean once it passes check or has been repaired
202b10170acSStefan Hajnoczi  */
203bba667daSPaolo Bonzini static void coroutine_fn GRAPH_RDLOCK
qed_check_mark_clean(BDRVQEDState * s,BdrvCheckResult * result)204bba667daSPaolo Bonzini qed_check_mark_clean(BDRVQEDState *s, BdrvCheckResult *result)
205b10170acSStefan Hajnoczi {
206b10170acSStefan Hajnoczi     /* Skip if there were unfixable corruptions or I/O errors */
207b10170acSStefan Hajnoczi     if (result->corruptions > 0 || result->check_errors > 0) {
208b10170acSStefan Hajnoczi         return;
209b10170acSStefan Hajnoczi     }
210b10170acSStefan Hajnoczi 
211b10170acSStefan Hajnoczi     /* Skip if image is already marked clean */
212b10170acSStefan Hajnoczi     if (!(s->header.features & QED_F_NEED_CHECK)) {
213b10170acSStefan Hajnoczi         return;
214b10170acSStefan Hajnoczi     }
215b10170acSStefan Hajnoczi 
216b10170acSStefan Hajnoczi     /* Ensure fixes reach storage before clearing check bit */
217bba667daSPaolo Bonzini     bdrv_co_flush(s->bs);
218b10170acSStefan Hajnoczi 
219b10170acSStefan Hajnoczi     s->header.features &= ~QED_F_NEED_CHECK;
220b10170acSStefan Hajnoczi     qed_write_header_sync(s);
221b10170acSStefan Hajnoczi }
222b10170acSStefan Hajnoczi 
2232fd61638SPaolo Bonzini /* Called with table_lock held.  */
qed_check(BDRVQEDState * s,BdrvCheckResult * result,bool fix)22454277a2aSVladimir Sementsov-Ogievskiy int coroutine_fn qed_check(BDRVQEDState *s, BdrvCheckResult *result, bool fix)
22501979a98SStefan Hajnoczi {
22601979a98SStefan Hajnoczi     QEDCheck check = {
22701979a98SStefan Hajnoczi         .s = s,
22801979a98SStefan Hajnoczi         .result = result,
22901979a98SStefan Hajnoczi         .nclusters = qed_bytes_to_clusters(s, s->file_size),
23001979a98SStefan Hajnoczi         .request = { .l2_table = NULL },
23101979a98SStefan Hajnoczi         .fix = fix,
23201979a98SStefan Hajnoczi     };
23301979a98SStefan Hajnoczi     int ret;
23401979a98SStefan Hajnoczi 
23502c4f26bSMarkus Armbruster     check.used_clusters = g_try_new0(uint32_t, (check.nclusters + 31) / 32);
2364f4896dbSKevin Wolf     if (check.nclusters && check.used_clusters == NULL) {
2374f4896dbSKevin Wolf         return -ENOMEM;
2384f4896dbSKevin Wolf     }
23901979a98SStefan Hajnoczi 
24011c9c615SDong Xu Wang     check.result->bfi.total_clusters =
241c41a73ffSLaurent Vivier         DIV_ROUND_UP(s->header.image_size, s->header.cluster_size);
24201979a98SStefan Hajnoczi     ret = qed_check_l1_table(&check, s->l1_table);
24301979a98SStefan Hajnoczi     if (ret == 0) {
24401979a98SStefan Hajnoczi         /* Only check for leaks if entire image was scanned successfully */
24501979a98SStefan Hajnoczi         qed_check_for_leaks(&check);
246b10170acSStefan Hajnoczi 
247b10170acSStefan Hajnoczi         if (fix) {
248b10170acSStefan Hajnoczi             qed_check_mark_clean(s, result);
249b10170acSStefan Hajnoczi         }
25001979a98SStefan Hajnoczi     }
25101979a98SStefan Hajnoczi 
2527267c094SAnthony Liguori     g_free(check.used_clusters);
25301979a98SStefan Hajnoczi     return ret;
25401979a98SStefan Hajnoczi }
255