TSTP Solution File: RNG059+2 by ePrincess---1.0
View Problem
- Process Solution
%------------------------------------------------------------------------------
% File : ePrincess---1.0
% Problem : RNG059+2 : TPTP v8.1.0. Released v4.0.0.
% Transfm : none
% Format : tptp:raw
% Command : ePrincess-casc -timeout=%d %s
% Computer : n028.cluster.edu
% Model : x86_64 x86_64
% CPU : Intel(R) Xeon(R) CPU E5-2620 v4 2.10GHz
% Memory : 8042.1875MB
% OS : Linux 3.10.0-693.el7.x86_64
% CPULimit : 300s
% WCLimit : 600s
% DateTime : Mon Jul 18 20:25:13 EDT 2022
% Result : Theorem 13.08s 4.17s
% Output : Proof 31.45s
% Verified :
% SZS Type : -
% Comments :
%------------------------------------------------------------------------------
%----WARNING: Could not form TPTP format derivation
%------------------------------------------------------------------------------
%----ORIGINAL SYSTEM OUTPUT
% 0.07/0.12 % Problem : RNG059+2 : TPTP v8.1.0. Released v4.0.0.
% 0.07/0.12 % Command : ePrincess-casc -timeout=%d %s
% 0.12/0.33 % Computer : n028.cluster.edu
% 0.12/0.33 % Model : x86_64 x86_64
% 0.12/0.33 % CPU : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz
% 0.12/0.33 % Memory : 8042.1875MB
% 0.12/0.33 % OS : Linux 3.10.0-693.el7.x86_64
% 0.12/0.33 % CPULimit : 300
% 0.12/0.33 % WCLimit : 600
% 0.12/0.33 % DateTime : Mon May 30 12:57:49 EDT 2022
% 0.12/0.33 % CPUTime :
% 0.18/0.58 ____ _
% 0.18/0.58 ___ / __ \_____(_)___ ________ __________
% 0.18/0.58 / _ \/ /_/ / ___/ / __ \/ ___/ _ \/ ___/ ___/
% 0.18/0.58 / __/ ____/ / / / / / / /__/ __(__ |__ )
% 0.18/0.58 \___/_/ /_/ /_/_/ /_/\___/\___/____/____/
% 0.18/0.58
% 0.18/0.58 A Theorem Prover for First-Order Logic
% 0.18/0.58 (ePrincess v.1.0)
% 0.18/0.58
% 0.18/0.58 (c) Philipp Rümmer, 2009-2015
% 0.18/0.58 (c) Peter Backeman, 2014-2015
% 0.18/0.58 (contributions by Angelo Brillout, Peter Baumgartner)
% 0.18/0.58 Free software under GNU Lesser General Public License (LGPL).
% 0.18/0.58 Bug reports to peter@backeman.se
% 0.18/0.58
% 0.18/0.58 For more information, visit http://user.uu.se/~petba168/breu/
% 0.18/0.58
% 0.18/0.58 Loading /export/starexec/sandbox2/benchmark/theBenchmark.p ...
% 0.65/0.63 Prover 0: Options: -triggersInConjecture -genTotalityAxioms -tightFunctionScopes -clausifier=simple -reverseFunctionalityPropagation +boolFunsAsPreds -triggerStrategy=allMaximal -resolutionMethod=nonUnifying +ignoreQuantifiers -generateTriggers=all
% 1.83/0.98 Prover 0: Preprocessing ...
% 3.80/1.48 Prover 0: Constructing countermodel ...
% 13.08/4.17 Prover 0: proved (3546ms)
% 13.08/4.17
% 13.08/4.17 No countermodel exists, formula is valid
% 13.08/4.17 % SZS status Theorem for theBenchmark
% 13.08/4.17
% 13.08/4.17 Generating proof ... found it (size 67)
% 30.29/11.07
% 30.29/11.07 % SZS output start Proof for theBenchmark
% 30.29/11.07 Assumed formulas after preprocessing and simplification:
% 30.29/11.07 | (0) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ( ~ (v9 = v8) & ~ (v1 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, v1) = xB & sdtlbdtrb0(xs, v1) = xA & aDimensionOf0(xq) = v3 & aDimensionOf0(xp) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v1 & smndt0(xN) = v9 & smndt0(xS) = v7 & smndt0(sz0z00) = v0 & sdtasdt0(v7, xR) = v8 & sdtasdt0(xP, xP) = v6 & sdtasdt0(xR, xS) = xN & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = v4 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = v5 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & szszuzczcdt0(v3) = v1 & szszuzczcdt0(v2) = v1 & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(v6, xN) & sdtlseqdt0(v4, v5) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ! [v16] : ! [v17] : ! [v18] : ! [v19] : ! [v20] : ( ~ (sdtasdt0(v11, v13) = v18) | ~ (sdtasdt0(v11, v12) = v17) | ~ (sdtasdt0(v10, v13) = v15) | ~ (sdtasdt0(v10, v12) = v14) | ~ (sdtpldt0(v17, v18) = v19) | ~ (sdtpldt0(v16, v19) = v20) | ~ (sdtpldt0(v14, v15) = v16) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v21] : ? [v22] : (sdtasdt0(v21, v22) = v20 & sdtpldt0(v12, v13) = v22 & sdtpldt0(v10, v11) = v21)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ! [v16] : ! [v17] : ! [v18] : ! [v19] : (v12 = sz00 | ~ (sdtasasdt0(v13, v14) = v15) | ~ (sziznziztdt0(v11) = v14) | ~ (sziznziztdt0(v10) = v13) | ~ (sdtlbdtrb0(v11, v12) = v17) | ~ (sdtlbdtrb0(v10, v12) = v16) | ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ (sdtasdt0(v16, v17) = v18) | ~ (sdtpldt0(v15, v18) = v19) | ~ aVector0(v11) | ~ aVector0(v10) | sdtasasdt0(v10, v11) = v19) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ! [v16] : ( ~ (sdtasdt0(v14, v15) = v16) | ~ (sdtpldt0(v12, v13) = v15) | ~ (sdtpldt0(v10, v11) = v14) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v17] : ? [v18] : ? [v19] : ? [v20] : ? [v21] : ? [v22] : (sdtasdt0(v11, v13) = v21 & sdtasdt0(v11, v12) = v20 & sdtasdt0(v10, v13) = v18 & sdtasdt0(v10, v12) = v17 & sdtpldt0(v20, v21) = v22 & sdtpldt0(v19, v22) = v16 & sdtpldt0(v17, v18) = v19)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtasdt0(v11, v13) = v15) | ~ (sdtasdt0(v10, v12) = v14) | ~ sdtlseqdt0(v12, v13) | ~ sdtlseqdt0(v10, v11) | ~ sdtlseqdt0(sz0z00, v12) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v14, v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtasdt0(v11, v12) = v14) | ~ (sdtasdt0(v10, v12) = v13) | ~ (sdtpldt0(v13, v14) = v15) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v19, v12) = v15 & sdtasdt0(v10, v16) = v17 & sdtasdt0(v10, v11) = v18 & sdtpldt0(v18, v13) = v17 & sdtpldt0(v11, v12) = v16 & sdtpldt0(v10, v11) = v19)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtasdt0(v10, v12) = v14) | ~ (sdtasdt0(v10, v11) = v13) | ~ (sdtpldt0(v13, v14) = v15) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v17, v12) = v18 & sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v16) = v15 & sdtpldt0(v14, v19) = v18 & sdtpldt0(v11, v12) = v16 & sdtpldt0(v10, v11) = v17)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtpldt0(v11, v13) = v15) | ~ (sdtpldt0(v10, v12) = v14) | ~ sdtlseqdt0(v12, v13) | ~ sdtlseqdt0(v10, v11) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v14, v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasasdt0(v11, v11) = v13) | ~ (sdtasasdt0(v10, v10) = v12) | ~ (sdtasdt0(v12, v13) = v14) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasasdt0(v10, v11) = v17 & aDimensionOf0(v11) = v16 & aDimensionOf0(v10) = v15 & sdtasdt0(v17, v17) = v18 & ( ~ (v16 = v15) | ~ iLess0(v15, v1) | sdtlseqdt0(v18, v14)))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (smndt0(v11) = v13) | ~ (smndt0(v10) = v12) | ~ (sdtasdt0(v12, v13) = v14) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtasdt0(v10, v11) = v14) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v13, v12) = v14) | ~ (sdtasdt0(v10, v11) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v13 & sdtasdt0(v10, v18) = v14 & sdtpldt0(v15, v12) = v16 & sdtpldt0(v11, v12) = v17 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v17) = v16 & sdtpldt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v13, v12) = v14) | ~ (sdtpldt0(v10, v11) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v15) = v16 & sdtasdt0(v10, v12) = v18 & sdtasdt0(v10, v11) = v17 & sdtpldt0(v18, v19) = v14 & sdtpldt0(v17, v18) = v16 & sdtpldt0(v11, v12) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v11, v12) = v13) | ~ (sdtasdt0(v10, v13) = v14) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v18, v12) = v14 & sdtasdt0(v11, v10) = v18 & sdtasdt0(v10, v11) = v18 & sdtpldt0(v15, v12) = v16 & sdtpldt0(v11, v12) = v17 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v17) = v16 & sdtpldt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v10, v13) = v14) | ~ (sdtpldt0(v11, v12) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v17, v12) = v18 & sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v12) = v16 & sdtasdt0(v10, v11) = v15 & sdtpldt0(v16, v19) = v18 & sdtpldt0(v15, v16) = v14 & sdtpldt0(v10, v11) = v17)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtpldt0(v13, v12) = v14) | ~ (sdtpldt0(v10, v11) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v16, v12) = v17 & sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v16 & sdtasdt0(v10, v18) = v17 & sdtasdt0(v10, v11) = v16 & sdtpldt0(v11, v12) = v15 & sdtpldt0(v11, v10) = v13 & sdtpldt0(v10, v15) = v14)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtpldt0(v11, v12) = v13) | ~ (sdtpldt0(v10, v13) = v14) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v16, v12) = v17 & sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v16 & sdtasdt0(v10, v18) = v17 & sdtasdt0(v10, v11) = v16 & sdtpldt0(v15, v12) = v14 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v12 = sz00 | ~ (sziznziztdt0(v10) = v13) | ~ (aDimensionOf0(v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : (sziznziztdt0(v11) = v16 & aDimensionOf0(v16) = v17 & aDimensionOf0(v13) = v15 & aDimensionOf0(v10) = v14 & ( ~ (v14 = v12) | v17 = v15))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtasasdt0(v13, v12) = v11) | ~ (sdtasasdt0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtlbdtrb0(v13, v12) = v11) | ~ (sdtlbdtrb0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtasdt0(v13, v12) = v11) | ~ (sdtasdt0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtpldt0(v13, v12) = v11) | ~ (sdtpldt0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (sdtasasdt0(v10, v11) = v12) | ~ (sdtasdt0(v12, v12) = v13) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasasdt0(v11, v11) = v17 & sdtasasdt0(v10, v10) = v16 & aDimensionOf0(v11) = v15 & aDimensionOf0(v10) = v14 & sdtasdt0(v16, v17) = v18 & ( ~ (v15 = v14) | ~ iLess0(v14, v1) | sdtlseqdt0(v13, v18)))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (sziznziztdt0(v11) = v13) | ~ (sziznziztdt0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : (aDimensionOf0(v13) = v17 & aDimensionOf0(v12) = v16 & aDimensionOf0(v11) = v15 & aDimensionOf0(v10) = v14 & ( ~ (v15 = v14) | v17 = v16 | v14 = sz00))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (sziznziztdt0(v11) = v13) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : (sziznziztdt0(v10) = v15 & aDimensionOf0(v15) = v16 & aDimensionOf0(v13) = v17 & aDimensionOf0(v11) = v14 & ( ~ (v14 = v12) | v17 = v16 | v12 = sz00))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (smndt0(v11) = v12) | ~ (sdtasdt0(v10, v12) = v13) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v14] : ? [v15] : (smndt0(v14) = v13 & smndt0(v10) = v15 & sdtasdt0(v15, v11) = v13 & sdtasdt0(v10, v11) = v14)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (smndt0(v10) = v12) | ~ (sdtasdt0(v12, v11) = v13) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v14] : ? [v15] : (smndt0(v15) = v13 & smndt0(v11) = v14 & sdtasdt0(v10, v14) = v13 & sdtasdt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz0z00 | ~ (sdtasasdt0(v10, v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : (aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13 & ( ~ (v14 = sz00) | ~ (v13 = sz00)))) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v11, v10) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz00 | ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasasdt0(v14, v15) = v16 & sdtasasdt0(v10, v11) = v13 & sziznziztdt0(v11) = v15 & sziznziztdt0(v10) = v14 & sdtlbdtrb0(v11, v12) = v18 & sdtlbdtrb0(v10, v12) = v17 & sdtasdt0(v17, v18) = v19 & sdtpldt0(v16, v19) = v13)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz00 | ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : ? [v15] : (sziznziztdt0(v11) = v15 & sziznziztdt0(v10) = v13 & aDimensionOf0(v15) = v14 & aDimensionOf0(v13) = v14)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (sziznziztdt0(v12) = v11) | ~ (sziznziztdt0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (aDimensionOf0(v12) = v11) | ~ (aDimensionOf0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (smndt0(v12) = v11) | ~ (smndt0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (sdtasdt0(v11, v11) = v12) | ~ (sdtasdt0(v10, v10) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (szszuzczcdt0(v12) = v11) | ~ (szszuzczcdt0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (szszuzczcdt0(v11) = v12) | ~ (szszuzczcdt0(v10) = v12) | ~ aNaturalNumber0(v11) | ~ aNaturalNumber0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v0 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v11, v10) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v0 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasasdt0(v10, v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | aScalar0(v12) | ? [v13] : ? [v14] : ( ~ (v14 = v13) & aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasasdt0(v10, v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : ? [v20] : ? [v21] : (sdtasasdt0(v15, v16) = v17 & sziznziztdt0(v11) = v16 & sziznziztdt0(v10) = v15 & sdtlbdtrb0(v11, v14) = v19 & sdtlbdtrb0(v10, v13) = v18 & aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13 & sdtasdt0(v18, v19) = v20 & sdtpldt0(v17, v20) = v21 & ( ~ (v14 = v13) | v21 = v12 | v13 = sz00))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtlbdtrb0(v10, v11) = v12) | ~ aVector0(v10) | ~ aNaturalNumber0(v11) | aScalar0(v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ~ iLess0(v12, v1) | ? [v13] : ? [v14] : ? [v15] : ? [v16] : ? [v17] : (sdtasasdt0(v11, v11) = v16 & sdtasasdt0(v10, v11) = v13 & sdtasasdt0(v10, v10) = v15 & sdtasdt0(v15, v16) = v17 & sdtasdt0(v13, v13) = v14 & sdtlseqdt0(v14, v17))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : (sdtasasdt0(v10, v11) = v13 & aScalar0(v13))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v11, v10) = v12) | ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v10, v11) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v11, v10) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : (sdtpldt0(v10, v11) = v13 & sdtlseqdt0(sz0z00, v13))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | aScalar0(v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : ? [v14] : ? [v15] : (smndt0(v12) = v14 & smndt0(v11) = v13 & smndt0(v10) = v15 & sdtasdt0(v15, v11) = v14 & sdtasdt0(v10, v13) = v14)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : ? [v14] : (smndt0(v11) = v14 & smndt0(v10) = v13 & sdtasdt0(v13, v14) = v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : (sdtasdt0(v10, v11) = v13 & sdtlseqdt0(sz0z00, v13))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | aScalar0(v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ sdtlseqdt0(v11, v12) | ~ sdtlseqdt0(v10, v11) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v10, v12)) & ! [v10] : ! [v11] : (v11 = v10 | ~ (sdtpldt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = v10 | ~ (sdtpldt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = v10 | ~ sdtlseqdt0(v11, v10) | ~ sdtlseqdt0(v10, v11) | ~ aScalar0(v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = sz0z00 | ~ (sdtasdt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = sz0z00 | ~ (sdtasdt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = sz00 | ~ (aDimensionOf0(v10) = v11) | ~ aVector0(v10) | ? [v12] : (sziznziztdt0(v10) = v12 & ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v12, v14) = v15) | ~ (aDimensionOf0(v12) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v10, v14) = v15) & ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v10, v14) = v15) | ~ (aDimensionOf0(v12) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v12, v14) = v15) & ! [v13] : ! [v14] : (v13 = v12 | ~ (aDimensionOf0(v13) = v14) | ~ aVector0(v13) | ? [v15] : ? [v16] : ? [v17] : (( ~ (v17 = v16) & sdtlbdtrb0(v13, v15) = v16 & sdtlbdtrb0(v10, v15) = v17 & aNaturalNumber0(v15)) | ( ~ (v15 = v11) & szszuzczcdt0(v14) = v15))) & ! [v13] : ( ~ (aDimensionOf0(v12) = v13) | szszuzczcdt0(v13) = v11) & ! [v13] : ( ~ (aDimensionOf0(v12) = v13) | aVector0(v12)))) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (smndt0(v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtasdt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtasdt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtpldt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtpldt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ( ~ (sdtasasdt0(v10, v10) = v11) | ~ aVector0(v10) | sdtlseqdt0(sz0z00, v11)) & ! [v10] : ! [v11] : ( ~ (sziznziztdt0(v10) = v11) | ~ aVector0(v10) | ? [v12] : (aDimensionOf0(v10) = v12 & (v12 = sz00 | ( ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v11, v14) = v15) | ~ (aDimensionOf0(v11) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v10, v14) = v15) & ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v10, v14) = v15) | ~ (aDimensionOf0(v11) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v11, v14) = v15) & ! [v13] : ! [v14] : (v13 = v11 | ~ (aDimensionOf0(v13) = v14) | ~ aVector0(v13) | ? [v15] : ? [v16] : ? [v17] : (( ~ (v17 = v16) & sdtlbdtrb0(v13, v15) = v16 & sdtlbdtrb0(v10, v15) = v17 & aNaturalNumber0(v15)) | ( ~ (v15 = v12) & szszuzczcdt0(v14) = v15))) & ! [v13] : ( ~ (aDimensionOf0(v11) = v13) | szszuzczcdt0(v13) = v12) & ! [v13] : ( ~ (aDimensionOf0(v11) = v13) | aVector0(v11)))))) & ! [v10] : ! [v11] : ( ~ (sdtlbdtrb0(xq, v10) = v11) | ~ aNaturalNumber0(v10) | sdtlbdtrb0(xt, v10) = v11) & ! [v10] : ! [v11] : ( ~ (sdtlbdtrb0(xp, v10) = v11) | ~ aNaturalNumber0(v10) | sdtlbdtrb0(xs, v10) = v11) & ! [v10] : ! [v11] : ( ~ (sdtlbdtrb0(xt, v10) = v11) | ~ aNaturalNumber0(v10) | sdtlbdtrb0(xq, v10) = v11) & ! [v10] : ! [v11] : ( ~ (sdtlbdtrb0(xs, v10) = v11) | ~ aNaturalNumber0(v10) | sdtlbdtrb0(xp, v10) = v11) & ! [v10] : ! [v11] : ( ~ (aDimensionOf0(v11) = sz00) | ~ (aDimensionOf0(v10) = sz00) | ~ aVector0(v11) | ~ aVector0(v10) | sdtasasdt0(v10, v11) = sz0z00) & ! [v10] : ! [v11] : ( ~ (aDimensionOf0(v10) = v11) | ~ aVector0(v10) | aNaturalNumber0(v11)) & ! [v10] : ! [v11] : ( ~ (smndt0(v10) = v11) | ~ aScalar0(v10) | aScalar0(v11)) & ! [v10] : ! [v11] : ( ~ (smndt0(v10) = v11) | ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v11, v10) = sz0z00 & sdtpldt0(v10, v11) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtasdt0(v10, v10) = v11) | ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v11)) & ! [v10] : ! [v11] : ( ~ (sdtasdt0(v10, sz0z00) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtasdt0(sz0z00, v10) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtpldt0(v10, sz0z00) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtpldt0(sz0z00, v10) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10)) & ! [v10] : ! [v11] : ( ~ (szszuzczcdt0(v10) = v11) | ~ aNaturalNumber0(v10) | iLess0(v10, v11)) & ! [v10] : ! [v11] : ( ~ (szszuzczcdt0(v10) = v11) | ~ aNaturalNumber0(v10) | aNaturalNumber0(v11)) & ! [v10] : ! [v11] : ( ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v11, v10) | sdtlseqdt0(v10, v11)) & ! [v10] : (v10 = sz00 | ~ aNaturalNumber0(v10) | ? [v11] : (szszuzczcdt0(v11) = v10 & aNaturalNumber0(v11))) & ! [v10] : ( ~ (szszuzczcdt0(v10) = sz00) | ~ aNaturalNumber0(v10)) & ! [v10] : ( ~ aScalar0(v10) | sdtlseqdt0(v10, v10)))
% 30.84/11.17 | Instantiating (0) with all_0_0_0, all_0_1_1, all_0_2_2, all_0_3_3, all_0_4_4, all_0_5_5, all_0_6_6, all_0_7_7, all_0_8_8, all_0_9_9 yields:
% 30.84/11.17 | (1) ~ (all_0_0_0 = all_0_1_1) & ~ (all_0_8_8 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, all_0_8_8) = xB & sdtlbdtrb0(xs, all_0_8_8) = xA & aDimensionOf0(xq) = all_0_6_6 & aDimensionOf0(xp) = all_0_7_7 & aDimensionOf0(xt) = all_0_8_8 & aDimensionOf0(xs) = all_0_8_8 & smndt0(xN) = all_0_0_0 & smndt0(xS) = all_0_2_2 & smndt0(sz0z00) = all_0_9_9 & sdtasdt0(all_0_2_2, xR) = all_0_1_1 & sdtasdt0(xP, xP) = all_0_3_3 & sdtasdt0(xR, xS) = xN & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = all_0_5_5 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = all_0_4_4 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & szszuzczcdt0(all_0_6_6) = all_0_8_8 & szszuzczcdt0(all_0_7_7) = all_0_8_8 & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(all_0_3_3, xN) & sdtlseqdt0(all_0_5_5, all_0_4_4) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) | ~ (sdtasdt0(v1, v2) = v7) | ~ (sdtasdt0(v0, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtpldt0(v7, v8) = v9) | ~ (sdtpldt0(v6, v9) = v10) | ~ (sdtpldt0(v4, v5) = v6) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v11] : ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : (v2 = sz00 | ~ (sdtasasdt0(v3, v4) = v5) | ~ (sziznziztdt0(v1) = v4) | ~ (sziznziztdt0(v0) = v3) | ~ (sdtlbdtrb0(v1, v2) = v7) | ~ (sdtlbdtrb0(v0, v2) = v6) | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ (sdtasdt0(v6, v7) = v8) | ~ (sdtpldt0(v5, v8) = v9) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) | ~ (sdtpldt0(v2, v3) = v5) | ~ (sdtpldt0(v0, v1) = v4) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ sdtlseqdt0(sz0z00, v2) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) | ~ (sdtasdt0(v0, v2) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) | ~ (sdtpldt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) | ~ (sdtasasdt0(v0, v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) | ~ iLess0(v5, all_0_8_8) | sdtlseqdt0(v8, v4)))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (smndt0(v1) = v3) | ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) | ~ (sdtasdt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) | ~ (sdtpldt0(v1, v2) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) | ~ (sdtpldt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v2 = sz00 | ~ (sziznziztdt0(v0) = v3) | ~ (aDimensionOf0(v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasasdt0(v3, v2) = v1) | ~ (sdtasasdt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtlbdtrb0(v3, v2) = v1) | ~ (sdtlbdtrb0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasdt0(v3, v2) = v1) | ~ (sdtasdt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtpldt0(v3, v2) = v1) | ~ (sdtpldt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ (sdtasdt0(v2, v2) = v3) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) | ~ iLess0(v4, all_0_8_8) | sdtlseqdt0(v3, v8)))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (sziznziztdt0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v1) = v2) | ~ (sdtasdt0(v0, v2) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v1) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) | ~ (v3 = sz00)))) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sziznziztdt0(v2) = v1) | ~ (sziznziztdt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (aDimensionOf0(v2) = v1) | ~ (aDimensionOf0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (smndt0(v2) = v1) | ~ (smndt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sdtasdt0(v1, v1) = v2) | ~ (sdtasdt0(v0, v0) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v2) = v1) | ~ (szszuzczcdt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v1) = v2) | ~ (szszuzczcdt0(v0) = v2) | ~ aNaturalNumber0(v1) | ~ aNaturalNumber0(v0)) & ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | aScalar0(v2) | ? [v3] : ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) | ~ aVector0(v0) | ~ aNaturalNumber0(v1) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ~ iLess0(v2, all_0_8_8) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ sdtlseqdt0(v1, v2) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v0, v2)) & ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = v0 | ~ sdtlseqdt0(v1, v0) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz00 | ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (sziznziztdt0(v0) = v2 & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) & ! [v3] : ! [v4] : (v3 = v2 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2)))) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) | ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1)) & ! [v0] : ! [v1] : ( ~ (sziznziztdt0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) & ! [v3] : ! [v4] : (v3 = v1 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1)))))) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xq, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xt, v0) = v1) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xp, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xs, v0) = v1) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xt, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xq, v0) = v1) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xs, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xp, v0) = v1) & ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) | ~ (aDimensionOf0(v0) = sz00) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00) & ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | aNaturalNumber0(v1)) & ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | aScalar0(v1)) & ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0)) & ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | iLess0(v0, v1)) & ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | aNaturalNumber0(v1)) & ! [v0] : ! [v1] : ( ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1)) & ! [v0] : (v0 = sz00 | ~ aNaturalNumber0(v0) | ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1))) & ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) | ~ aNaturalNumber0(v0)) & ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 30.84/11.20 |
% 30.84/11.20 | Applying alpha-rule on (1) yields:
% 30.84/11.20 | (2) aScalar0(xD)
% 30.84/11.20 | (3) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sdtasdt0(v1, v1) = v2) | ~ (sdtasdt0(v0, v0) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0))
% 30.84/11.20 | (4) ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 30.84/11.20 | (5) ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | iLess0(v0, v1))
% 30.84/11.20 | (6) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2))
% 30.84/11.20 | (7) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 31.15/11.20 | (8) ! [v0] : ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) | ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1))
% 31.15/11.20 | (9) szszuzczcdt0(all_0_6_6) = all_0_8_8
% 31.15/11.20 | (10) ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.15/11.20 | (11) sdtasasdt0(xp, xq) = xE
% 31.15/11.20 | (12) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) | ~ (sdtpldt0(v2, v3) = v5) | ~ (sdtpldt0(v0, v1) = v4) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9))
% 31.15/11.20 | (13) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ sdtlseqdt0(sz0z00, v2) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 31.15/11.20 | (14) ! [v0] : (v0 = sz00 | ~ aNaturalNumber0(v0) | ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1)))
% 31.15/11.20 | (15) aVector0(xs)
% 31.15/11.20 | (16) sdtlbdtrb0(xs, all_0_8_8) = xA
% 31.15/11.20 | (17) sdtasdt0(xC, xD) = all_0_4_4
% 31.15/11.20 | (18) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sziznziztdt0(v2) = v1) | ~ (sziznziztdt0(v2) = v0))
% 31.15/11.20 | (19) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 31.15/11.20 | (20) ! [v0] : ! [v1] : (v1 = v0 | ~ sdtlseqdt0(v1, v0) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v1) | ~ aScalar0(v0))
% 31.15/11.20 | (21) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) | ~ (sdtasdt0(v0, v2) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9))
% 31.15/11.20 | (22) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4))
% 31.15/11.20 | (23) aDimensionOf0(xt) = all_0_8_8
% 31.15/11.20 | (24) aScalar0(xN)
% 31.15/11.20 | (25) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasdt0(v3, v2) = v1) | ~ (sdtasdt0(v3, v2) = v0))
% 31.15/11.20 | (26) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) | ~ aVector0(v0) | ~ aNaturalNumber0(v1) | aScalar0(v2))
% 31.15/11.20 | (27) smndt0(xN) = all_0_0_0
% 31.15/11.21 | (28) sdtasdt0(xF, xD) = xS
% 31.15/11.21 | (29) sdtasdt0(xC, xG) = xR
% 31.15/11.21 | (30) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 31.15/11.21 | (31) sdtasdt0(xR, xS) = xN
% 31.15/11.21 | (32) ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 31.15/11.21 | (33) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v1) = v2) | ~ (szszuzczcdt0(v0) = v2) | ~ aNaturalNumber0(v1) | ~ aNaturalNumber0(v0))
% 31.15/11.21 | (34) aNaturalNumber0(sz00)
% 31.15/11.21 | (35) aScalar0(xS)
% 31.15/11.21 | (36) sdtasdt0(xE, xE) = all_0_5_5
% 31.15/11.21 | (37) ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1))
% 31.15/11.21 | (38) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) | ~ (sdtasdt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 31.15/11.21 | (39) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) | ~ (sdtpldt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 31.15/11.21 | (40) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 31.15/11.21 | (41) ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 31.15/11.21 | (42) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : (v2 = sz00 | ~ (sdtasasdt0(v3, v4) = v5) | ~ (sziznziztdt0(v1) = v4) | ~ (sziznziztdt0(v0) = v3) | ~ (sdtlbdtrb0(v1, v2) = v7) | ~ (sdtlbdtrb0(v0, v2) = v6) | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ (sdtasdt0(v6, v7) = v8) | ~ (sdtpldt0(v5, v8) = v9) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9)
% 31.15/11.21 | (43) aScalar0(sz0z00)
% 31.15/11.21 | (44) ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ~ iLess0(v2, all_0_8_8) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7)))
% 31.15/11.21 | (45) aVector0(xq)
% 31.15/11.21 | (46) aVector0(xt)
% 31.15/11.21 | (47) aDimensionOf0(xq) = all_0_6_6
% 31.15/11.21 | (48) ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3))
% 31.15/11.21 | (49) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v1) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5))
% 31.15/11.21 | (50) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2))
% 31.15/11.21 | (51) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) | ~ (sdtasdt0(v1, v2) = v7) | ~ (sdtasdt0(v0, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtpldt0(v7, v8) = v9) | ~ (sdtpldt0(v6, v9) = v10) | ~ (sdtpldt0(v4, v5) = v6) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v11] : ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11))
% 31.15/11.21 | (52) aScalar0(xH)
% 31.15/11.21 | (53) ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3)))
% 31.15/11.21 | (54) sziznziztdt0(xs) = xp
% 31.15/11.21 | (55) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (smndt0(v2) = v1) | ~ (smndt0(v2) = v0))
% 31.15/11.21 | (56) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (sziznziztdt0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00)))
% 31.15/11.21 | (57) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (aDimensionOf0(v2) = v1) | ~ (aDimensionOf0(v2) = v0))
% 31.15/11.21 | (58) sdtlseqdt0(all_0_3_3, xN)
% 31.15/11.21 | (59) sdtlseqdt0(all_0_5_5, all_0_4_4)
% 31.15/11.21 | (60) aScalar0(xE)
% 31.15/11.21 | (61) ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | aNaturalNumber0(v1))
% 31.15/11.21 | (62) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 31.15/11.22 | (63) ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.15/11.22 | (64) ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0))
% 31.15/11.22 | (65) sdtasdt0(xP, xP) = all_0_3_3
% 31.15/11.22 | (66) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00)))
% 31.15/11.22 | (67) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 31.15/11.22 | (68) ~ (all_0_0_0 = all_0_1_1)
% 31.15/11.22 | (69) aScalar0(xA)
% 31.15/11.22 | (70) ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 31.15/11.22 | (71) aScalar0(xC)
% 31.15/11.22 | (72) ! [v0] : ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.15/11.22 | (73) aDimensionOf0(xp) = all_0_7_7
% 31.15/11.22 | (74) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (smndt0(v1) = v3) | ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4)
% 31.15/11.22 | (75) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 31.15/11.22 | (76) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xt, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xq, v0) = v1)
% 31.15/11.22 | (77) aScalar0(xP)
% 31.15/11.22 | (78) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v2) = v1) | ~ (szszuzczcdt0(v2) = v0))
% 31.15/11.22 | (79) ~ (all_0_8_8 = sz00)
% 31.15/11.22 | (80) aDimensionOf0(xs) = all_0_8_8
% 31.15/11.22 | (81) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | aScalar0(v2) | ? [v3] : ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3))
% 31.15/11.22 | (82) ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0))
% 31.15/11.22 | (83) aScalar0(xF)
% 31.15/11.22 | (84) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4))
% 31.15/11.22 | (85) ! [v0] : ! [v1] : ( ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1))
% 31.15/11.22 | (86) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7))
% 31.15/11.22 | (87) sdtasdt0(xE, xH) = xP
% 31.15/11.22 | (88) aScalar0(xR)
% 31.15/11.22 | (89) smndt0(xS) = all_0_2_2
% 31.15/11.22 | (90) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 31.15/11.22 | (91) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) | ~ (sdtpldt0(v1, v2) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7))
% 31.15/11.22 | (92) aVector0(xp)
% 31.15/11.22 | (93) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) | ~ (v3 = sz00))))
% 31.15/11.22 | (94) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0))
% 31.15/11.22 | (95) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5))
% 31.15/11.23 | (96) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00)))
% 31.15/11.23 | (97) sdtlbdtrb0(xt, all_0_8_8) = xB
% 31.15/11.23 | (98) sdtasdt0(xA, xB) = xH
% 31.15/11.23 | (99) ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | aScalar0(v1))
% 31.15/11.23 | (100) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) | ~ (sdtasasdt0(v0, v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) | ~ iLess0(v5, all_0_8_8) | sdtlseqdt0(v8, v4))))
% 31.15/11.23 | (101) ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | aNaturalNumber0(v1))
% 31.15/11.23 | (102) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtpldt0(v3, v2) = v1) | ~ (sdtpldt0(v3, v2) = v0))
% 31.15/11.23 | (103) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasasdt0(v3, v2) = v1) | ~ (sdtasasdt0(v3, v2) = v0))
% 31.15/11.23 | (104) ! [v0] : ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0))
% 31.15/11.23 | (105) sdtasasdt0(xq, xq) = xD
% 31.15/11.23 | (106) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 31.15/11.23 | (107) ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 31.15/11.23 | (108) ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.15/11.23 | (109) sdtasdt0(xB, xB) = xG
% 31.15/11.23 | (110) sdtasdt0(all_0_2_2, xR) = all_0_1_1
% 31.15/11.23 | (111) ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4))
% 31.15/11.23 | (112) smndt0(sz0z00) = all_0_9_9
% 31.15/11.23 | (113) ! [v0] : ! [v1] : ! [v2] : ( ~ sdtlseqdt0(v1, v2) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v0, v2))
% 31.15/11.23 | (114) ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) | ~ (aDimensionOf0(v0) = sz00) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00)
% 31.15/11.23 | (115) sdtasasdt0(xp, xp) = xC
% 31.15/11.23 | (116) ! [v0] : ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0))
% 31.15/11.23 | (117) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v1) = v2) | ~ (sdtasdt0(v0, v2) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4))
% 31.15/11.23 | (118) ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) | ~ aNaturalNumber0(v0))
% 31.15/11.23 | (119) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtlbdtrb0(v3, v2) = v1) | ~ (sdtlbdtrb0(v3, v2) = v0))
% 31.15/11.23 | (120) szszuzczcdt0(all_0_7_7) = all_0_8_8
% 31.15/11.23 | (121) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) | ~ (sdtpldt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5))
% 31.15/11.23 | (122) aScalar0(xB)
% 31.15/11.23 | (123) ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 31.15/11.23 | (124) sdtasdt0(xA, xA) = xF
% 31.15/11.23 | (125) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ (sdtasdt0(v2, v2) = v3) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) | ~ iLess0(v4, all_0_8_8) | sdtlseqdt0(v3, v8))))
% 31.15/11.24 | (126) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2))
% 31.15/11.24 | (127) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xs, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xp, v0) = v1)
% 31.15/11.24 | (128) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xp, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xs, v0) = v1)
% 31.15/11.24 | (129) aScalar0(xG)
% 31.15/11.24 | (130) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xq, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xt, v0) = v1)
% 31.15/11.24 | (131) sziznziztdt0(xt) = xq
% 31.15/11.24 | (132) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ aScalar0(v0))
% 31.15/11.24 | (133) ! [v0] : ! [v1] : (v1 = sz00 | ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (sziznziztdt0(v0) = v2 & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) & ! [v3] : ! [v4] : (v3 = v2 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2))))
% 31.15/11.24 | (134) ! [v0] : ! [v1] : ( ~ (sziznziztdt0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) & ! [v3] : ! [v4] : (v3 = v1 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1))))))
% 31.15/11.24 | (135) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v2 = sz00 | ~ (sziznziztdt0(v0) = v3) | ~ (aDimensionOf0(v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5)))
% 31.15/11.24 | (136) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0))
% 31.15/11.24 |
% 31.15/11.24 | Instantiating formula (132) with all_0_9_9, sz0z00 and discharging atoms smndt0(sz0z00) = all_0_9_9, aScalar0(sz0z00), yields:
% 31.15/11.24 | (137) all_0_9_9 = sz0z00
% 31.15/11.24 |
% 31.15/11.24 | From (137) and (112) follows:
% 31.15/11.24 | (138) smndt0(sz0z00) = sz0z00
% 31.15/11.24 |
% 31.15/11.24 | Instantiating formula (99) with all_0_0_0, xN and discharging atoms smndt0(xN) = all_0_0_0, aScalar0(xN), yields:
% 31.15/11.24 | (139) aScalar0(all_0_0_0)
% 31.15/11.24 |
% 31.15/11.24 | Instantiating formula (63) with all_0_0_0, xN and discharging atoms smndt0(xN) = all_0_0_0, aScalar0(xN), yields:
% 31.15/11.24 | (140) smndt0(all_0_0_0) = xN & sdtasdt0(xN, sz0z00) = sz0z00 & sdtasdt0(sz0z00, xN) = sz0z00 & sdtpldt0(all_0_0_0, xN) = sz0z00 & sdtpldt0(xN, all_0_0_0) = sz0z00 & sdtpldt0(xN, sz0z00) = xN & sdtpldt0(sz0z00, xN) = xN
% 31.15/11.24 |
% 31.15/11.24 | Applying alpha-rule on (140) yields:
% 31.15/11.24 | (141) smndt0(all_0_0_0) = xN
% 31.15/11.24 | (142) sdtpldt0(sz0z00, xN) = xN
% 31.15/11.24 | (143) sdtasdt0(xN, sz0z00) = sz0z00
% 31.15/11.24 | (144) sdtpldt0(xN, all_0_0_0) = sz0z00
% 31.15/11.24 | (145) sdtasdt0(sz0z00, xN) = sz0z00
% 31.15/11.24 | (146) sdtpldt0(all_0_0_0, xN) = sz0z00
% 31.15/11.25 | (147) sdtpldt0(xN, sz0z00) = xN
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (63) with all_0_2_2, xS and discharging atoms smndt0(xS) = all_0_2_2, aScalar0(xS), yields:
% 31.15/11.25 | (148) smndt0(all_0_2_2) = xS & sdtasdt0(xS, sz0z00) = sz0z00 & sdtasdt0(sz0z00, xS) = sz0z00 & sdtpldt0(all_0_2_2, xS) = sz0z00 & sdtpldt0(xS, all_0_2_2) = sz0z00 & sdtpldt0(xS, sz0z00) = xS & sdtpldt0(sz0z00, xS) = xS
% 31.15/11.25 |
% 31.15/11.25 | Applying alpha-rule on (148) yields:
% 31.15/11.25 | (149) sdtpldt0(all_0_2_2, xS) = sz0z00
% 31.15/11.25 | (150) sdtasdt0(sz0z00, xS) = sz0z00
% 31.15/11.25 | (151) sdtpldt0(xS, all_0_2_2) = sz0z00
% 31.15/11.25 | (152) sdtpldt0(sz0z00, xS) = xS
% 31.15/11.25 | (153) sdtasdt0(xS, sz0z00) = sz0z00
% 31.15/11.25 | (154) sdtpldt0(xS, sz0z00) = xS
% 31.15/11.25 | (155) smndt0(all_0_2_2) = xS
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (49) with all_0_1_1, all_0_2_2, xR, xS and discharging atoms smndt0(xS) = all_0_2_2, sdtasdt0(all_0_2_2, xR) = all_0_1_1, aScalar0(xS), aScalar0(xR), yields:
% 31.15/11.25 | (156) ? [v0] : ? [v1] : (smndt0(v1) = all_0_1_1 & smndt0(xR) = v0 & sdtasdt0(xS, v0) = all_0_1_1 & sdtasdt0(xS, xR) = v1)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating (156) with all_37_0_66, all_37_1_67 yields:
% 31.15/11.25 | (157) smndt0(all_37_0_66) = all_0_1_1 & smndt0(xR) = all_37_1_67 & sdtasdt0(xS, all_37_1_67) = all_0_1_1 & sdtasdt0(xS, xR) = all_37_0_66
% 31.15/11.25 |
% 31.15/11.25 | Applying alpha-rule on (157) yields:
% 31.15/11.25 | (158) smndt0(all_37_0_66) = all_0_1_1
% 31.15/11.25 | (159) smndt0(xR) = all_37_1_67
% 31.15/11.25 | (160) sdtasdt0(xS, all_37_1_67) = all_0_1_1
% 31.15/11.25 | (161) sdtasdt0(xS, xR) = all_37_0_66
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (75) with sz0z00, xN, sz0z00, xS, xR and discharging atoms sdtasdt0(xN, sz0z00) = sz0z00, sdtasdt0(xR, xS) = xN, aScalar0(xS), aScalar0(xR), aScalar0(sz0z00), yields:
% 31.15/11.25 | (162) ? [v0] : ? [v1] : ? [v2] : ? [v3] : (sdtasdt0(xS, xR) = xN & sdtasdt0(xS, sz0z00) = v3 & sdtasdt0(xR, v3) = sz0z00 & sdtpldt0(v0, sz0z00) = v1 & sdtpldt0(xS, xR) = v0 & sdtpldt0(xS, sz0z00) = v2 & sdtpldt0(xR, v2) = v1 & sdtpldt0(xR, xS) = v0)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (117) with sz0z00, sz0z00, sz0z00, xN and discharging atoms smndt0(sz0z00) = sz0z00, sdtasdt0(xN, sz0z00) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.15/11.25 | (163) ? [v0] : ? [v1] : (smndt0(v0) = sz0z00 & smndt0(xN) = v1 & sdtasdt0(v1, sz0z00) = sz0z00 & sdtasdt0(xN, sz0z00) = v0)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (22) with sz0z00, sz0z00, xN and discharging atoms sdtasdt0(xN, sz0z00) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.15/11.25 | (164) ? [v0] : ? [v1] : ? [v2] : (smndt0(xN) = v2 & smndt0(sz0z00) = v1 & smndt0(sz0z00) = v0 & sdtasdt0(v2, sz0z00) = v1 & sdtasdt0(xN, v0) = v1)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (50) with sz0z00, sz0z00, xN and discharging atoms sdtasdt0(xN, sz0z00) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.15/11.25 | (165) ? [v0] : ? [v1] : (smndt0(xN) = v0 & smndt0(sz0z00) = v1 & sdtasdt0(v0, v1) = sz0z00)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (49) with sz0z00, sz0z00, xN, sz0z00 and discharging atoms smndt0(sz0z00) = sz0z00, sdtasdt0(sz0z00, xN) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.15/11.25 | (166) ? [v0] : ? [v1] : (smndt0(v1) = sz0z00 & smndt0(xN) = v0 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtasdt0(sz0z00, xN) = v1)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (22) with sz0z00, xN, sz0z00 and discharging atoms sdtasdt0(sz0z00, xN) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.15/11.25 | (167) ? [v0] : ? [v1] : ? [v2] : (smndt0(xN) = v0 & smndt0(sz0z00) = v2 & smndt0(sz0z00) = v1 & sdtasdt0(v2, xN) = v1 & sdtasdt0(sz0z00, v0) = v1)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (50) with sz0z00, xN, sz0z00 and discharging atoms sdtasdt0(sz0z00, xN) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.15/11.25 | (168) ? [v0] : ? [v1] : (smndt0(xN) = v1 & smndt0(sz0z00) = v0 & sdtasdt0(v0, v1) = sz0z00)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (95) with all_37_0_66, xS, xR, sz0z00, xS and discharging atoms sdtasdt0(xS, xR) = all_37_0_66, sdtpldt0(xS, sz0z00) = xS, aScalar0(xS), aScalar0(xR), aScalar0(sz0z00), yields:
% 31.15/11.25 | (169) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : (sdtasdt0(xS, v0) = v1 & sdtasdt0(xS, xR) = v3 & sdtasdt0(xS, sz0z00) = v2 & sdtasdt0(sz0z00, xR) = v4 & sdtpldt0(v3, v4) = all_37_0_66 & sdtpldt0(v2, v3) = v1 & sdtpldt0(sz0z00, xR) = v0)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (95) with all_37_0_66, xS, xR, xS, sz0z00 and discharging atoms sdtasdt0(xS, xR) = all_37_0_66, sdtpldt0(sz0z00, xS) = xS, aScalar0(xS), aScalar0(xR), aScalar0(sz0z00), yields:
% 31.15/11.25 | (170) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : (sdtasdt0(xS, xR) = v4 & sdtasdt0(sz0z00, v0) = v1 & sdtasdt0(sz0z00, xS) = v2 & sdtasdt0(sz0z00, xR) = v3 & sdtpldt0(v3, v4) = all_37_0_66 & sdtpldt0(v2, v3) = v1 & sdtpldt0(xS, xR) = v0)
% 31.15/11.25 |
% 31.15/11.25 | Instantiating formula (63) with xN, all_0_0_0 and discharging atoms smndt0(all_0_0_0) = xN, aScalar0(all_0_0_0), yields:
% 31.15/11.25 | (171) smndt0(xN) = all_0_0_0 & sdtasdt0(all_0_0_0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, all_0_0_0) = sz0z00 & sdtpldt0(all_0_0_0, xN) = sz0z00 & sdtpldt0(all_0_0_0, sz0z00) = all_0_0_0 & sdtpldt0(xN, all_0_0_0) = sz0z00 & sdtpldt0(sz0z00, all_0_0_0) = all_0_0_0
% 31.15/11.25 |
% 31.15/11.25 | Applying alpha-rule on (171) yields:
% 31.15/11.25 | (172) sdtasdt0(all_0_0_0, sz0z00) = sz0z00
% 31.15/11.26 | (27) smndt0(xN) = all_0_0_0
% 31.15/11.26 | (144) sdtpldt0(xN, all_0_0_0) = sz0z00
% 31.15/11.26 | (175) sdtasdt0(sz0z00, all_0_0_0) = sz0z00
% 31.15/11.26 | (176) sdtpldt0(sz0z00, all_0_0_0) = all_0_0_0
% 31.15/11.26 | (146) sdtpldt0(all_0_0_0, xN) = sz0z00
% 31.15/11.26 | (178) sdtpldt0(all_0_0_0, sz0z00) = all_0_0_0
% 31.15/11.26 |
% 31.15/11.26 | Instantiating (170) with all_295_0_361, all_295_1_362, all_295_2_363, all_295_3_364, all_295_4_365 yields:
% 31.15/11.26 | (179) sdtasdt0(xS, xR) = all_295_0_361 & sdtasdt0(sz0z00, all_295_4_365) = all_295_3_364 & sdtasdt0(sz0z00, xS) = all_295_2_363 & sdtasdt0(sz0z00, xR) = all_295_1_362 & sdtpldt0(all_295_1_362, all_295_0_361) = all_37_0_66 & sdtpldt0(all_295_2_363, all_295_1_362) = all_295_3_364 & sdtpldt0(xS, xR) = all_295_4_365
% 31.15/11.26 |
% 31.15/11.26 | Applying alpha-rule on (179) yields:
% 31.15/11.26 | (180) sdtpldt0(xS, xR) = all_295_4_365
% 31.15/11.26 | (181) sdtasdt0(xS, xR) = all_295_0_361
% 31.15/11.26 | (182) sdtpldt0(all_295_1_362, all_295_0_361) = all_37_0_66
% 31.15/11.26 | (183) sdtasdt0(sz0z00, xR) = all_295_1_362
% 31.15/11.26 | (184) sdtasdt0(sz0z00, xS) = all_295_2_363
% 31.15/11.26 | (185) sdtpldt0(all_295_2_363, all_295_1_362) = all_295_3_364
% 31.15/11.26 | (186) sdtasdt0(sz0z00, all_295_4_365) = all_295_3_364
% 31.15/11.26 |
% 31.15/11.26 | Instantiating (165) with all_327_0_413, all_327_1_414 yields:
% 31.15/11.26 | (187) smndt0(xN) = all_327_1_414 & smndt0(sz0z00) = all_327_0_413 & sdtasdt0(all_327_1_414, all_327_0_413) = sz0z00
% 31.15/11.26 |
% 31.15/11.26 | Applying alpha-rule on (187) yields:
% 31.15/11.26 | (188) smndt0(xN) = all_327_1_414
% 31.15/11.26 | (189) smndt0(sz0z00) = all_327_0_413
% 31.15/11.26 | (190) sdtasdt0(all_327_1_414, all_327_0_413) = sz0z00
% 31.15/11.26 |
% 31.15/11.26 | Instantiating (166) with all_405_0_572, all_405_1_573 yields:
% 31.15/11.26 | (191) smndt0(all_405_0_572) = sz0z00 & smndt0(xN) = all_405_1_573 & sdtasdt0(sz0z00, all_405_1_573) = sz0z00 & sdtasdt0(sz0z00, xN) = all_405_0_572
% 31.15/11.26 |
% 31.15/11.26 | Applying alpha-rule on (191) yields:
% 31.15/11.26 | (192) smndt0(all_405_0_572) = sz0z00
% 31.15/11.26 | (193) smndt0(xN) = all_405_1_573
% 31.15/11.26 | (194) sdtasdt0(sz0z00, all_405_1_573) = sz0z00
% 31.15/11.26 | (195) sdtasdt0(sz0z00, xN) = all_405_0_572
% 31.15/11.26 |
% 31.15/11.26 | Instantiating (168) with all_409_0_578, all_409_1_579 yields:
% 31.15/11.26 | (196) smndt0(xN) = all_409_0_578 & smndt0(sz0z00) = all_409_1_579 & sdtasdt0(all_409_1_579, all_409_0_578) = sz0z00
% 31.15/11.26 |
% 31.15/11.26 | Applying alpha-rule on (196) yields:
% 31.15/11.26 | (197) smndt0(xN) = all_409_0_578
% 31.15/11.26 | (198) smndt0(sz0z00) = all_409_1_579
% 31.15/11.26 | (199) sdtasdt0(all_409_1_579, all_409_0_578) = sz0z00
% 31.15/11.26 |
% 31.15/11.26 | Instantiating (167) with all_411_0_580, all_411_1_581, all_411_2_582 yields:
% 31.15/11.26 | (200) smndt0(xN) = all_411_2_582 & smndt0(sz0z00) = all_411_0_580 & smndt0(sz0z00) = all_411_1_581 & sdtasdt0(all_411_0_580, xN) = all_411_1_581 & sdtasdt0(sz0z00, all_411_2_582) = all_411_1_581
% 31.15/11.26 |
% 31.15/11.26 | Applying alpha-rule on (200) yields:
% 31.15/11.26 | (201) sdtasdt0(all_411_0_580, xN) = all_411_1_581
% 31.15/11.26 | (202) smndt0(sz0z00) = all_411_1_581
% 31.15/11.26 | (203) smndt0(sz0z00) = all_411_0_580
% 31.45/11.26 | (204) sdtasdt0(sz0z00, all_411_2_582) = all_411_1_581
% 31.45/11.26 | (205) smndt0(xN) = all_411_2_582
% 31.45/11.26 |
% 31.45/11.26 | Instantiating (164) with all_423_0_602, all_423_1_603, all_423_2_604 yields:
% 31.45/11.26 | (206) smndt0(xN) = all_423_0_602 & smndt0(sz0z00) = all_423_1_603 & smndt0(sz0z00) = all_423_2_604 & sdtasdt0(all_423_0_602, sz0z00) = all_423_1_603 & sdtasdt0(xN, all_423_2_604) = all_423_1_603
% 31.45/11.26 |
% 31.45/11.26 | Applying alpha-rule on (206) yields:
% 31.45/11.26 | (207) smndt0(xN) = all_423_0_602
% 31.45/11.26 | (208) smndt0(sz0z00) = all_423_2_604
% 31.45/11.26 | (209) sdtasdt0(all_423_0_602, sz0z00) = all_423_1_603
% 31.45/11.26 | (210) sdtasdt0(xN, all_423_2_604) = all_423_1_603
% 31.45/11.26 | (211) smndt0(sz0z00) = all_423_1_603
% 31.45/11.26 |
% 31.45/11.26 | Instantiating (162) with all_427_0_609, all_427_1_610, all_427_2_611, all_427_3_612 yields:
% 31.45/11.26 | (212) sdtasdt0(xS, xR) = xN & sdtasdt0(xS, sz0z00) = all_427_0_609 & sdtasdt0(xR, all_427_0_609) = sz0z00 & sdtpldt0(all_427_3_612, sz0z00) = all_427_2_611 & sdtpldt0(xS, xR) = all_427_3_612 & sdtpldt0(xS, sz0z00) = all_427_1_610 & sdtpldt0(xR, all_427_1_610) = all_427_2_611 & sdtpldt0(xR, xS) = all_427_3_612
% 31.45/11.26 |
% 31.45/11.26 | Applying alpha-rule on (212) yields:
% 31.45/11.26 | (213) sdtpldt0(xR, xS) = all_427_3_612
% 31.45/11.26 | (214) sdtasdt0(xR, all_427_0_609) = sz0z00
% 31.45/11.26 | (215) sdtpldt0(xS, sz0z00) = all_427_1_610
% 31.45/11.26 | (216) sdtpldt0(xR, all_427_1_610) = all_427_2_611
% 31.45/11.26 | (217) sdtpldt0(all_427_3_612, sz0z00) = all_427_2_611
% 31.45/11.26 | (218) sdtpldt0(xS, xR) = all_427_3_612
% 31.45/11.26 | (219) sdtasdt0(xS, sz0z00) = all_427_0_609
% 31.45/11.26 | (220) sdtasdt0(xS, xR) = xN
% 31.45/11.26 |
% 31.45/11.26 | Instantiating (163) with all_429_0_613, all_429_1_614 yields:
% 31.45/11.26 | (221) smndt0(all_429_1_614) = sz0z00 & smndt0(xN) = all_429_0_613 & sdtasdt0(all_429_0_613, sz0z00) = sz0z00 & sdtasdt0(xN, sz0z00) = all_429_1_614
% 31.45/11.26 |
% 31.45/11.26 | Applying alpha-rule on (221) yields:
% 31.45/11.26 | (222) smndt0(all_429_1_614) = sz0z00
% 31.45/11.26 | (223) smndt0(xN) = all_429_0_613
% 31.45/11.26 | (224) sdtasdt0(all_429_0_613, sz0z00) = sz0z00
% 31.45/11.26 | (225) sdtasdt0(xN, sz0z00) = all_429_1_614
% 31.45/11.26 |
% 31.45/11.26 | Instantiating (169) with all_627_0_1007, all_627_1_1008, all_627_2_1009, all_627_3_1010, all_627_4_1011 yields:
% 31.45/11.26 | (226) sdtasdt0(xS, all_627_4_1011) = all_627_3_1010 & sdtasdt0(xS, xR) = all_627_1_1008 & sdtasdt0(xS, sz0z00) = all_627_2_1009 & sdtasdt0(sz0z00, xR) = all_627_0_1007 & sdtpldt0(all_627_1_1008, all_627_0_1007) = all_37_0_66 & sdtpldt0(all_627_2_1009, all_627_1_1008) = all_627_3_1010 & sdtpldt0(sz0z00, xR) = all_627_4_1011
% 31.45/11.26 |
% 31.45/11.26 | Applying alpha-rule on (226) yields:
% 31.45/11.26 | (227) sdtasdt0(xS, sz0z00) = all_627_2_1009
% 31.45/11.26 | (228) sdtpldt0(sz0z00, xR) = all_627_4_1011
% 31.45/11.26 | (229) sdtpldt0(all_627_1_1008, all_627_0_1007) = all_37_0_66
% 31.45/11.26 | (230) sdtasdt0(xS, xR) = all_627_1_1008
% 31.45/11.26 | (231) sdtasdt0(xS, all_627_4_1011) = all_627_3_1010
% 31.45/11.26 | (232) sdtpldt0(all_627_2_1009, all_627_1_1008) = all_627_3_1010
% 31.45/11.26 | (233) sdtasdt0(sz0z00, xR) = all_627_0_1007
% 31.45/11.26 |
% 31.45/11.26 | Instantiating formula (55) with xN, all_429_0_613, all_0_0_0 and discharging atoms smndt0(xN) = all_429_0_613, smndt0(xN) = all_0_0_0, yields:
% 31.45/11.27 | (234) all_429_0_613 = all_0_0_0
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (55) with xN, all_411_2_582, all_423_0_602 and discharging atoms smndt0(xN) = all_423_0_602, smndt0(xN) = all_411_2_582, yields:
% 31.45/11.27 | (235) all_423_0_602 = all_411_2_582
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (55) with xN, all_409_0_578, all_423_0_602 and discharging atoms smndt0(xN) = all_423_0_602, smndt0(xN) = all_409_0_578, yields:
% 31.45/11.27 | (236) all_423_0_602 = all_409_0_578
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (55) with xN, all_405_1_573, all_429_0_613 and discharging atoms smndt0(xN) = all_429_0_613, smndt0(xN) = all_405_1_573, yields:
% 31.45/11.27 | (237) all_429_0_613 = all_405_1_573
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (55) with xN, all_405_1_573, all_411_2_582 and discharging atoms smndt0(xN) = all_411_2_582, smndt0(xN) = all_405_1_573, yields:
% 31.45/11.27 | (238) all_411_2_582 = all_405_1_573
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (55) with xN, all_327_1_414, all_411_2_582 and discharging atoms smndt0(xN) = all_411_2_582, smndt0(xN) = all_327_1_414, yields:
% 31.45/11.27 | (239) all_411_2_582 = all_327_1_414
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (25) with xS, xR, all_627_1_1008, all_37_0_66 and discharging atoms sdtasdt0(xS, xR) = all_627_1_1008, sdtasdt0(xS, xR) = all_37_0_66, yields:
% 31.45/11.27 | (240) all_627_1_1008 = all_37_0_66
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (25) with xS, xR, all_295_0_361, all_627_1_1008 and discharging atoms sdtasdt0(xS, xR) = all_627_1_1008, sdtasdt0(xS, xR) = all_295_0_361, yields:
% 31.45/11.27 | (241) all_627_1_1008 = all_295_0_361
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (25) with xS, xR, xN, all_295_0_361 and discharging atoms sdtasdt0(xS, xR) = all_295_0_361, sdtasdt0(xS, xR) = xN, yields:
% 31.45/11.27 | (242) all_295_0_361 = xN
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (241,240) yields a new equation:
% 31.45/11.27 | (243) all_295_0_361 = all_37_0_66
% 31.45/11.27 |
% 31.45/11.27 | Simplifying 243 yields:
% 31.45/11.27 | (244) all_295_0_361 = all_37_0_66
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (237,234) yields a new equation:
% 31.45/11.27 | (245) all_405_1_573 = all_0_0_0
% 31.45/11.27 |
% 31.45/11.27 | Simplifying 245 yields:
% 31.45/11.27 | (246) all_405_1_573 = all_0_0_0
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (235,236) yields a new equation:
% 31.45/11.27 | (247) all_411_2_582 = all_409_0_578
% 31.45/11.27 |
% 31.45/11.27 | Simplifying 247 yields:
% 31.45/11.27 | (248) all_411_2_582 = all_409_0_578
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (239,248) yields a new equation:
% 31.45/11.27 | (249) all_409_0_578 = all_327_1_414
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (238,248) yields a new equation:
% 31.45/11.27 | (250) all_409_0_578 = all_405_1_573
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (250,249) yields a new equation:
% 31.45/11.27 | (251) all_405_1_573 = all_327_1_414
% 31.45/11.27 |
% 31.45/11.27 | Simplifying 251 yields:
% 31.45/11.27 | (252) all_405_1_573 = all_327_1_414
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (246,252) yields a new equation:
% 31.45/11.27 | (253) all_327_1_414 = all_0_0_0
% 31.45/11.27 |
% 31.45/11.27 | Combining equations (242,244) yields a new equation:
% 31.45/11.27 | (254) all_37_0_66 = xN
% 31.45/11.27 |
% 31.45/11.27 | From (254) and (158) follows:
% 31.45/11.27 | (255) smndt0(xN) = all_0_1_1
% 31.45/11.27 |
% 31.45/11.27 | From (253) and (188) follows:
% 31.45/11.27 | (27) smndt0(xN) = all_0_0_0
% 31.45/11.27 |
% 31.45/11.27 | Instantiating formula (55) with xN, all_0_1_1, all_0_0_0 and discharging atoms smndt0(xN) = all_0_0_0, smndt0(xN) = all_0_1_1, yields:
% 31.45/11.27 | (257) all_0_0_0 = all_0_1_1
% 31.45/11.27 |
% 31.45/11.27 | Equations (257) can reduce 68 to:
% 31.45/11.27 | (258) $false
% 31.45/11.27 |
% 31.45/11.27 |-The branch is then unsatisfiable
% 31.45/11.27 % SZS output end Proof for theBenchmark
% 31.45/11.27
% 31.45/11.27 10682ms
%------------------------------------------------------------------------------