101979a98SStefan Hajnoczi /* 201979a98SStefan Hajnoczi * QEMU Enhanced Disk Format Consistency Check 301979a98SStefan Hajnoczi * 401979a98SStefan Hajnoczi * Copyright IBM, Corp. 2010 501979a98SStefan Hajnoczi * 601979a98SStefan Hajnoczi * Authors: 701979a98SStefan Hajnoczi * Stefan Hajnoczi <stefanha@linux.vnet.ibm.com> 801979a98SStefan Hajnoczi * 901979a98SStefan Hajnoczi * This work is licensed under the terms of the GNU LGPL, version 2 or later. 1001979a98SStefan Hajnoczi * See the COPYING.LIB file in the top-level directory. 1101979a98SStefan Hajnoczi * 1201979a98SStefan Hajnoczi */ 1301979a98SStefan Hajnoczi 1480c71a24SPeter Maydell #include "qemu/osdep.h" 15e2c1c34fSMarkus Armbruster #include "block/block-io.h" 1601979a98SStefan Hajnoczi #include "qed.h" 1701979a98SStefan Hajnoczi 1801979a98SStefan Hajnoczi typedef struct { 1901979a98SStefan Hajnoczi BDRVQEDState *s; 2001979a98SStefan Hajnoczi BdrvCheckResult *result; 2101979a98SStefan Hajnoczi bool fix; /* whether to fix invalid offsets */ 2201979a98SStefan Hajnoczi 2319dfc44aSStefan Hajnoczi uint64_t nclusters; 2401979a98SStefan Hajnoczi uint32_t *used_clusters; /* referenced cluster bitmap */ 2501979a98SStefan Hajnoczi 2601979a98SStefan Hajnoczi QEDRequest request; 2701979a98SStefan Hajnoczi } QEDCheck; 2801979a98SStefan Hajnoczi 2901979a98SStefan Hajnoczi static bool qed_test_bit(uint32_t *bitmap, uint64_t n) { 3001979a98SStefan Hajnoczi return !!(bitmap[n / 32] & (1 << (n % 32))); 3101979a98SStefan Hajnoczi } 3201979a98SStefan Hajnoczi 3301979a98SStefan Hajnoczi static void qed_set_bit(uint32_t *bitmap, uint64_t n) { 3401979a98SStefan Hajnoczi bitmap[n / 32] |= 1 << (n % 32); 3501979a98SStefan Hajnoczi } 3601979a98SStefan Hajnoczi 3701979a98SStefan Hajnoczi /** 3801979a98SStefan Hajnoczi * Set bitmap bits for clusters 3901979a98SStefan Hajnoczi * 4001979a98SStefan Hajnoczi * @check: Check structure 4101979a98SStefan Hajnoczi * @offset: Starting offset in bytes 4201979a98SStefan Hajnoczi * @n: Number of clusters 4301979a98SStefan Hajnoczi */ 4401979a98SStefan Hajnoczi static bool qed_set_used_clusters(QEDCheck *check, uint64_t offset, 4501979a98SStefan Hajnoczi unsigned int n) 4601979a98SStefan Hajnoczi { 4701979a98SStefan Hajnoczi uint64_t cluster = qed_bytes_to_clusters(check->s, offset); 4801979a98SStefan Hajnoczi unsigned int corruptions = 0; 4901979a98SStefan Hajnoczi 5001979a98SStefan Hajnoczi while (n-- != 0) { 5101979a98SStefan Hajnoczi /* Clusters should only be referenced once */ 5201979a98SStefan Hajnoczi if (qed_test_bit(check->used_clusters, cluster)) { 5301979a98SStefan Hajnoczi corruptions++; 5401979a98SStefan Hajnoczi } 5501979a98SStefan Hajnoczi 5601979a98SStefan Hajnoczi qed_set_bit(check->used_clusters, cluster); 5701979a98SStefan Hajnoczi cluster++; 5801979a98SStefan Hajnoczi } 5901979a98SStefan Hajnoczi 6001979a98SStefan Hajnoczi check->result->corruptions += corruptions; 6101979a98SStefan Hajnoczi return corruptions == 0; 6201979a98SStefan Hajnoczi } 6301979a98SStefan Hajnoczi 6401979a98SStefan Hajnoczi /** 6501979a98SStefan Hajnoczi * Check an L2 table 6601979a98SStefan Hajnoczi * 6701979a98SStefan Hajnoczi * @ret: Number of invalid cluster offsets 6801979a98SStefan Hajnoczi */ 6901979a98SStefan Hajnoczi static unsigned int qed_check_l2_table(QEDCheck *check, QEDTable *table) 7001979a98SStefan Hajnoczi { 7101979a98SStefan Hajnoczi BDRVQEDState *s = check->s; 7201979a98SStefan Hajnoczi unsigned int i, num_invalid = 0; 7311c9c615SDong Xu Wang uint64_t last_offset = 0; 7401979a98SStefan Hajnoczi 7501979a98SStefan Hajnoczi for (i = 0; i < s->table_nelems; i++) { 7601979a98SStefan Hajnoczi uint64_t offset = table->offsets[i]; 7701979a98SStefan Hajnoczi 7821df65b6SAnthony Liguori if (qed_offset_is_unalloc_cluster(offset) || 7921df65b6SAnthony Liguori qed_offset_is_zero_cluster(offset)) { 8001979a98SStefan Hajnoczi continue; 8101979a98SStefan Hajnoczi } 8211c9c615SDong Xu Wang check->result->bfi.allocated_clusters++; 8311c9c615SDong Xu Wang if (last_offset && (last_offset + s->header.cluster_size != offset)) { 8411c9c615SDong Xu Wang check->result->bfi.fragmented_clusters++; 8511c9c615SDong Xu Wang } 8611c9c615SDong Xu Wang last_offset = offset; 8701979a98SStefan Hajnoczi 8801979a98SStefan Hajnoczi /* Detect invalid cluster offset */ 8901979a98SStefan Hajnoczi if (!qed_check_cluster_offset(s, offset)) { 9001979a98SStefan Hajnoczi if (check->fix) { 9101979a98SStefan Hajnoczi table->offsets[i] = 0; 92ccf34716SKevin Wolf check->result->corruptions_fixed++; 9301979a98SStefan Hajnoczi } else { 9401979a98SStefan Hajnoczi check->result->corruptions++; 9501979a98SStefan Hajnoczi } 9601979a98SStefan Hajnoczi 9701979a98SStefan Hajnoczi num_invalid++; 9801979a98SStefan Hajnoczi continue; 9901979a98SStefan Hajnoczi } 10001979a98SStefan Hajnoczi 10101979a98SStefan Hajnoczi qed_set_used_clusters(check, offset, 1); 10201979a98SStefan Hajnoczi } 10301979a98SStefan Hajnoczi 10401979a98SStefan Hajnoczi return num_invalid; 10501979a98SStefan Hajnoczi } 10601979a98SStefan Hajnoczi 10701979a98SStefan Hajnoczi /** 10801979a98SStefan Hajnoczi * Descend tables and check each cluster is referenced once only 10901979a98SStefan Hajnoczi */ 11054277a2aSVladimir Sementsov-Ogievskiy static int coroutine_fn qed_check_l1_table(QEDCheck *check, QEDTable *table) 11101979a98SStefan Hajnoczi { 11201979a98SStefan Hajnoczi BDRVQEDState *s = check->s; 11301979a98SStefan Hajnoczi unsigned int i, num_invalid_l1 = 0; 11401979a98SStefan Hajnoczi int ret, last_error = 0; 11501979a98SStefan Hajnoczi 11601979a98SStefan Hajnoczi /* Mark L1 table clusters used */ 11701979a98SStefan Hajnoczi qed_set_used_clusters(check, s->header.l1_table_offset, 11801979a98SStefan Hajnoczi s->header.table_size); 11901979a98SStefan Hajnoczi 12001979a98SStefan Hajnoczi for (i = 0; i < s->table_nelems; i++) { 12101979a98SStefan Hajnoczi unsigned int num_invalid_l2; 12201979a98SStefan Hajnoczi uint64_t offset = table->offsets[i]; 12301979a98SStefan Hajnoczi 12421df65b6SAnthony Liguori if (qed_offset_is_unalloc_cluster(offset)) { 12501979a98SStefan Hajnoczi continue; 12601979a98SStefan Hajnoczi } 12701979a98SStefan Hajnoczi 12801979a98SStefan Hajnoczi /* Detect invalid L2 offset */ 12901979a98SStefan Hajnoczi if (!qed_check_table_offset(s, offset)) { 13001979a98SStefan Hajnoczi /* Clear invalid offset */ 13101979a98SStefan Hajnoczi if (check->fix) { 13201979a98SStefan Hajnoczi table->offsets[i] = 0; 133ccf34716SKevin Wolf check->result->corruptions_fixed++; 13401979a98SStefan Hajnoczi } else { 13501979a98SStefan Hajnoczi check->result->corruptions++; 13601979a98SStefan Hajnoczi } 13701979a98SStefan Hajnoczi 13801979a98SStefan Hajnoczi num_invalid_l1++; 13901979a98SStefan Hajnoczi continue; 14001979a98SStefan Hajnoczi } 14101979a98SStefan Hajnoczi 14201979a98SStefan Hajnoczi if (!qed_set_used_clusters(check, offset, s->header.table_size)) { 14301979a98SStefan Hajnoczi continue; /* skip an invalid table */ 14401979a98SStefan Hajnoczi } 14501979a98SStefan Hajnoczi 14601979a98SStefan Hajnoczi ret = qed_read_l2_table_sync(s, &check->request, offset); 14701979a98SStefan Hajnoczi if (ret) { 14801979a98SStefan Hajnoczi check->result->check_errors++; 14901979a98SStefan Hajnoczi last_error = ret; 15001979a98SStefan Hajnoczi continue; 15101979a98SStefan Hajnoczi } 15201979a98SStefan Hajnoczi 15301979a98SStefan Hajnoczi num_invalid_l2 = qed_check_l2_table(check, 15401979a98SStefan Hajnoczi check->request.l2_table->table); 15501979a98SStefan Hajnoczi 15601979a98SStefan Hajnoczi /* Write out fixed L2 table */ 15701979a98SStefan Hajnoczi if (num_invalid_l2 > 0 && check->fix) { 15801979a98SStefan Hajnoczi ret = qed_write_l2_table_sync(s, &check->request, 0, 15901979a98SStefan Hajnoczi s->table_nelems, false); 16001979a98SStefan Hajnoczi if (ret) { 16101979a98SStefan Hajnoczi check->result->check_errors++; 16201979a98SStefan Hajnoczi last_error = ret; 16301979a98SStefan Hajnoczi continue; 16401979a98SStefan Hajnoczi } 16501979a98SStefan Hajnoczi } 16601979a98SStefan Hajnoczi } 16701979a98SStefan Hajnoczi 16801979a98SStefan Hajnoczi /* Drop reference to final table */ 16901979a98SStefan Hajnoczi qed_unref_l2_cache_entry(check->request.l2_table); 17001979a98SStefan Hajnoczi check->request.l2_table = NULL; 17101979a98SStefan Hajnoczi 17201979a98SStefan Hajnoczi /* Write out fixed L1 table */ 17301979a98SStefan Hajnoczi if (num_invalid_l1 > 0 && check->fix) { 17401979a98SStefan Hajnoczi ret = qed_write_l1_table_sync(s, 0, s->table_nelems); 17501979a98SStefan Hajnoczi if (ret) { 17601979a98SStefan Hajnoczi check->result->check_errors++; 17701979a98SStefan Hajnoczi last_error = ret; 17801979a98SStefan Hajnoczi } 17901979a98SStefan Hajnoczi } 18001979a98SStefan Hajnoczi 18101979a98SStefan Hajnoczi return last_error; 18201979a98SStefan Hajnoczi } 18301979a98SStefan Hajnoczi 18401979a98SStefan Hajnoczi /** 18501979a98SStefan Hajnoczi * Check for unreferenced (leaked) clusters 18601979a98SStefan Hajnoczi */ 18701979a98SStefan Hajnoczi static void qed_check_for_leaks(QEDCheck *check) 18801979a98SStefan Hajnoczi { 18901979a98SStefan Hajnoczi BDRVQEDState *s = check->s; 19019dfc44aSStefan Hajnoczi uint64_t i; 19101979a98SStefan Hajnoczi 19201979a98SStefan Hajnoczi for (i = s->header.header_size; i < check->nclusters; i++) { 19301979a98SStefan Hajnoczi if (!qed_test_bit(check->used_clusters, i)) { 19401979a98SStefan Hajnoczi check->result->leaks++; 19501979a98SStefan Hajnoczi } 19601979a98SStefan Hajnoczi } 19701979a98SStefan Hajnoczi } 19801979a98SStefan Hajnoczi 199b10170acSStefan Hajnoczi /** 200b10170acSStefan Hajnoczi * Mark an image clean once it passes check or has been repaired 201b10170acSStefan Hajnoczi */ 202b10170acSStefan Hajnoczi static void qed_check_mark_clean(BDRVQEDState *s, BdrvCheckResult *result) 203b10170acSStefan Hajnoczi { 204b10170acSStefan Hajnoczi /* Skip if there were unfixable corruptions or I/O errors */ 205b10170acSStefan Hajnoczi if (result->corruptions > 0 || result->check_errors > 0) { 206b10170acSStefan Hajnoczi return; 207b10170acSStefan Hajnoczi } 208b10170acSStefan Hajnoczi 209b10170acSStefan Hajnoczi /* Skip if image is already marked clean */ 210b10170acSStefan Hajnoczi if (!(s->header.features & QED_F_NEED_CHECK)) { 211b10170acSStefan Hajnoczi return; 212b10170acSStefan Hajnoczi } 213b10170acSStefan Hajnoczi 214b10170acSStefan Hajnoczi /* Ensure fixes reach storage before clearing check bit */ 215b10170acSStefan Hajnoczi bdrv_flush(s->bs); 216b10170acSStefan Hajnoczi 217b10170acSStefan Hajnoczi s->header.features &= ~QED_F_NEED_CHECK; 218b10170acSStefan Hajnoczi qed_write_header_sync(s); 219b10170acSStefan Hajnoczi } 220b10170acSStefan Hajnoczi 2212fd61638SPaolo Bonzini /* Called with table_lock held. */ 22254277a2aSVladimir Sementsov-Ogievskiy int coroutine_fn qed_check(BDRVQEDState *s, BdrvCheckResult *result, bool fix) 22301979a98SStefan Hajnoczi { 22401979a98SStefan Hajnoczi QEDCheck check = { 22501979a98SStefan Hajnoczi .s = s, 22601979a98SStefan Hajnoczi .result = result, 22701979a98SStefan Hajnoczi .nclusters = qed_bytes_to_clusters(s, s->file_size), 22801979a98SStefan Hajnoczi .request = { .l2_table = NULL }, 22901979a98SStefan Hajnoczi .fix = fix, 23001979a98SStefan Hajnoczi }; 23101979a98SStefan Hajnoczi int ret; 23201979a98SStefan Hajnoczi 23302c4f26bSMarkus Armbruster check.used_clusters = g_try_new0(uint32_t, (check.nclusters + 31) / 32); 2344f4896dbSKevin Wolf if (check.nclusters && check.used_clusters == NULL) { 2354f4896dbSKevin Wolf return -ENOMEM; 2364f4896dbSKevin Wolf } 23701979a98SStefan Hajnoczi 23811c9c615SDong Xu Wang check.result->bfi.total_clusters = 239c41a73ffSLaurent Vivier DIV_ROUND_UP(s->header.image_size, s->header.cluster_size); 24001979a98SStefan Hajnoczi ret = qed_check_l1_table(&check, s->l1_table); 24101979a98SStefan Hajnoczi if (ret == 0) { 24201979a98SStefan Hajnoczi /* Only check for leaks if entire image was scanned successfully */ 24301979a98SStefan Hajnoczi qed_check_for_leaks(&check); 244b10170acSStefan Hajnoczi 245b10170acSStefan Hajnoczi if (fix) { 246b10170acSStefan Hajnoczi qed_check_mark_clean(s, result); 247b10170acSStefan Hajnoczi } 24801979a98SStefan Hajnoczi } 24901979a98SStefan Hajnoczi 2507267c094SAnthony Liguori g_free(check.used_clusters); 25101979a98SStefan Hajnoczi return ret; 25201979a98SStefan Hajnoczi } 253