TSTP Solution File: RNG081+1 by ePrincess---1.0
View Problem
- Process Solution
%------------------------------------------------------------------------------
% File : ePrincess---1.0
% Problem : RNG081+1 : TPTP v8.1.0. Released v4.0.0.
% Transfm : none
% Format : tptp:raw
% Command : ePrincess-casc -timeout=%d %s
% Computer : n024.cluster.edu
% Model : x86_64 x86_64
% CPU : Intel(R) Xeon(R) CPU E5-2620 v4 2.10GHz
% Memory : 8042.1875MB
% OS : Linux 3.10.0-693.el7.x86_64
% CPULimit : 300s
% WCLimit : 600s
% DateTime : Mon Jul 18 20:25:18 EDT 2022
% Result : Theorem 5.03s 1.83s
% Output : Proof 8.65s
% Verified :
% SZS Type : -
% Comments :
%------------------------------------------------------------------------------
%----WARNING: Could not form TPTP format derivation
%------------------------------------------------------------------------------
%----ORIGINAL SYSTEM OUTPUT
% 0.00/0.11 % Problem : RNG081+1 : TPTP v8.1.0. Released v4.0.0.
% 0.11/0.12 % Command : ePrincess-casc -timeout=%d %s
% 0.12/0.33 % Computer : n024.cluster.edu
% 0.12/0.33 % Model : x86_64 x86_64
% 0.12/0.33 % CPU : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz
% 0.12/0.33 % Memory : 8042.1875MB
% 0.12/0.33 % OS : Linux 3.10.0-693.el7.x86_64
% 0.12/0.33 % CPULimit : 300
% 0.12/0.33 % WCLimit : 600
% 0.12/0.33 % DateTime : Mon May 30 09:05:51 EDT 2022
% 0.12/0.33 % CPUTime :
% 0.55/0.58 ____ _
% 0.55/0.58 ___ / __ \_____(_)___ ________ __________
% 0.55/0.58 / _ \/ /_/ / ___/ / __ \/ ___/ _ \/ ___/ ___/
% 0.55/0.58 / __/ ____/ / / / / / / /__/ __(__ |__ )
% 0.55/0.58 \___/_/ /_/ /_/_/ /_/\___/\___/____/____/
% 0.55/0.58
% 0.55/0.58 A Theorem Prover for First-Order Logic
% 0.61/0.59 (ePrincess v.1.0)
% 0.61/0.59
% 0.61/0.59 (c) Philipp Rümmer, 2009-2015
% 0.61/0.59 (c) Peter Backeman, 2014-2015
% 0.61/0.59 (contributions by Angelo Brillout, Peter Baumgartner)
% 0.61/0.59 Free software under GNU Lesser General Public License (LGPL).
% 0.61/0.59 Bug reports to peter@backeman.se
% 0.61/0.59
% 0.61/0.59 For more information, visit http://user.uu.se/~petba168/breu/
% 0.61/0.59
% 0.61/0.59 Loading /export/starexec/sandbox/benchmark/theBenchmark.p ...
% 0.71/0.66 Prover 0: Options: -triggersInConjecture -genTotalityAxioms -tightFunctionScopes -clausifier=simple -reverseFunctionalityPropagation +boolFunsAsPreds -triggerStrategy=allMaximal -resolutionMethod=nonUnifying +ignoreQuantifiers -generateTriggers=all
% 1.90/1.01 Prover 0: Preprocessing ...
% 4.20/1.63 Prover 0: Constructing countermodel ...
% 5.03/1.83 Prover 0: proved (1165ms)
% 5.03/1.83
% 5.03/1.83 No countermodel exists, formula is valid
% 5.03/1.83 % SZS status Theorem for theBenchmark
% 5.03/1.83
% 5.03/1.83 Generating proof ... found it (size 99)
% 8.09/2.53
% 8.09/2.53 % SZS output start Proof for theBenchmark
% 8.09/2.53 Assumed formulas after preprocessing and simplification:
% 8.09/2.53 | (0) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasasdt0(xt, xt) = v8 & sdtasasdt0(xs, xt) = v5 & sdtasasdt0(xs, xs) = v7 & sziznziztdt0(xt) = v2 & sziznziztdt0(xs) = v1 & sdtlbdtrb0(xt, sz00) = v4 & sdtlbdtrb0(xs, sz00) = v3 & aDimensionOf0(xt) = sz00 & aDimensionOf0(xs) = sz00 & smndt0(sz0z00) = v0 & sdtasdt0(v7, v8) = v9 & sdtasdt0(v5, v5) = v6 & aVector0(xt) & aVector0(xs) & aScalar0(sz0z00) & aNaturalNumber0(sz00) & ~ sdtlseqdt0(v6, v9) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ! [v16] : ! [v17] : ! [v18] : ! [v19] : ! [v20] : ( ~ (sdtasdt0(v11, v13) = v18) | ~ (sdtasdt0(v11, v12) = v17) | ~ (sdtasdt0(v10, v13) = v15) | ~ (sdtasdt0(v10, v12) = v14) | ~ (sdtpldt0(v17, v18) = v19) | ~ (sdtpldt0(v16, v19) = v20) | ~ (sdtpldt0(v14, v15) = v16) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v21] : ? [v22] : (sdtasdt0(v21, v22) = v20 & sdtpldt0(v12, v13) = v22 & sdtpldt0(v10, v11) = v21)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ! [v16] : ! [v17] : ! [v18] : ! [v19] : (v12 = sz00 | ~ (sdtasasdt0(v13, v14) = v15) | ~ (sziznziztdt0(v11) = v14) | ~ (sziznziztdt0(v10) = v13) | ~ (sdtlbdtrb0(v11, v12) = v17) | ~ (sdtlbdtrb0(v10, v12) = v16) | ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ (sdtasdt0(v16, v17) = v18) | ~ (sdtpldt0(v15, v18) = v19) | ~ aVector0(v11) | ~ aVector0(v10) | sdtasasdt0(v10, v11) = v19) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ! [v16] : ( ~ (sdtasdt0(v14, v15) = v16) | ~ (sdtpldt0(v12, v13) = v15) | ~ (sdtpldt0(v10, v11) = v14) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v17] : ? [v18] : ? [v19] : ? [v20] : ? [v21] : ? [v22] : (sdtasdt0(v11, v13) = v21 & sdtasdt0(v11, v12) = v20 & sdtasdt0(v10, v13) = v18 & sdtasdt0(v10, v12) = v17 & sdtpldt0(v20, v21) = v22 & sdtpldt0(v19, v22) = v16 & sdtpldt0(v17, v18) = v19)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtasdt0(v11, v13) = v15) | ~ (sdtasdt0(v10, v12) = v14) | ~ sdtlseqdt0(v12, v13) | ~ sdtlseqdt0(v10, v11) | ~ sdtlseqdt0(sz0z00, v12) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v14, v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtasdt0(v11, v12) = v14) | ~ (sdtasdt0(v10, v12) = v13) | ~ (sdtpldt0(v13, v14) = v15) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v19, v12) = v15 & sdtasdt0(v10, v16) = v17 & sdtasdt0(v10, v11) = v18 & sdtpldt0(v18, v13) = v17 & sdtpldt0(v11, v12) = v16 & sdtpldt0(v10, v11) = v19)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtasdt0(v10, v12) = v14) | ~ (sdtasdt0(v10, v11) = v13) | ~ (sdtpldt0(v13, v14) = v15) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v17, v12) = v18 & sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v16) = v15 & sdtpldt0(v14, v19) = v18 & sdtpldt0(v11, v12) = v16 & sdtpldt0(v10, v11) = v17)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtpldt0(v11, v13) = v15) | ~ (sdtpldt0(v10, v12) = v14) | ~ sdtlseqdt0(v12, v13) | ~ sdtlseqdt0(v10, v11) | ~ aScalar0(v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v14, v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasasdt0(v11, v11) = v13) | ~ (sdtasasdt0(v10, v10) = v12) | ~ (sdtasdt0(v12, v13) = v14) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasasdt0(v10, v11) = v17 & aDimensionOf0(v11) = v16 & aDimensionOf0(v10) = v15 & sdtasdt0(v17, v17) = v18 & ( ~ (v16 = v15) | ~ iLess0(v15, sz00) | sdtlseqdt0(v18, v14)))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (smndt0(v11) = v13) | ~ (smndt0(v10) = v12) | ~ (sdtasdt0(v12, v13) = v14) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtasdt0(v10, v11) = v14) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v13, v12) = v14) | ~ (sdtasdt0(v10, v11) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v13 & sdtasdt0(v10, v18) = v14 & sdtpldt0(v15, v12) = v16 & sdtpldt0(v11, v12) = v17 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v17) = v16 & sdtpldt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v13, v12) = v14) | ~ (sdtpldt0(v10, v11) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v15) = v16 & sdtasdt0(v10, v12) = v18 & sdtasdt0(v10, v11) = v17 & sdtpldt0(v18, v19) = v14 & sdtpldt0(v17, v18) = v16 & sdtpldt0(v11, v12) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v11, v12) = v13) | ~ (sdtasdt0(v10, v13) = v14) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v18, v12) = v14 & sdtasdt0(v11, v10) = v18 & sdtasdt0(v10, v11) = v18 & sdtpldt0(v15, v12) = v16 & sdtpldt0(v11, v12) = v17 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v17) = v16 & sdtpldt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtasdt0(v10, v13) = v14) | ~ (sdtpldt0(v11, v12) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasdt0(v17, v12) = v18 & sdtasdt0(v11, v12) = v19 & sdtasdt0(v10, v12) = v16 & sdtasdt0(v10, v11) = v15 & sdtpldt0(v16, v19) = v18 & sdtpldt0(v15, v16) = v14 & sdtpldt0(v10, v11) = v17)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtpldt0(v13, v12) = v14) | ~ (sdtpldt0(v10, v11) = v13) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v16, v12) = v17 & sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v16 & sdtasdt0(v10, v18) = v17 & sdtasdt0(v10, v11) = v16 & sdtpldt0(v11, v12) = v15 & sdtpldt0(v11, v10) = v13 & sdtpldt0(v10, v15) = v14)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ! [v14] : ( ~ (sdtpldt0(v11, v12) = v13) | ~ (sdtpldt0(v10, v13) = v14) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasdt0(v16, v12) = v17 & sdtasdt0(v11, v12) = v18 & sdtasdt0(v11, v10) = v16 & sdtasdt0(v10, v18) = v17 & sdtasdt0(v10, v11) = v16 & sdtpldt0(v15, v12) = v14 & sdtpldt0(v11, v10) = v15 & sdtpldt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v12 = sz00 | ~ (sziznziztdt0(v10) = v13) | ~ (aDimensionOf0(v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : (sziznziztdt0(v11) = v16 & aDimensionOf0(v16) = v17 & aDimensionOf0(v13) = v15 & aDimensionOf0(v10) = v14 & ( ~ (v14 = v12) | v17 = v15))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtasasdt0(v13, v12) = v11) | ~ (sdtasasdt0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtlbdtrb0(v13, v12) = v11) | ~ (sdtlbdtrb0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtasdt0(v13, v12) = v11) | ~ (sdtasdt0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : (v11 = v10 | ~ (sdtpldt0(v13, v12) = v11) | ~ (sdtpldt0(v13, v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (sdtasasdt0(v10, v11) = v12) | ~ (sdtasdt0(v12, v12) = v13) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : ? [v18] : (sdtasasdt0(v11, v11) = v17 & sdtasasdt0(v10, v10) = v16 & aDimensionOf0(v11) = v15 & aDimensionOf0(v10) = v14 & sdtasdt0(v16, v17) = v18 & ( ~ (v15 = v14) | ~ iLess0(v14, sz00) | sdtlseqdt0(v13, v18)))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (sziznziztdt0(v11) = v13) | ~ (sziznziztdt0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : (aDimensionOf0(v13) = v17 & aDimensionOf0(v12) = v16 & aDimensionOf0(v11) = v15 & aDimensionOf0(v10) = v14 & ( ~ (v15 = v14) | v17 = v16 | v14 = sz00))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (sziznziztdt0(v11) = v13) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v14] : ? [v15] : ? [v16] : ? [v17] : (sziznziztdt0(v10) = v15 & aDimensionOf0(v15) = v16 & aDimensionOf0(v13) = v17 & aDimensionOf0(v11) = v14 & ( ~ (v14 = v12) | v17 = v16 | v12 = sz00))) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (smndt0(v11) = v12) | ~ (sdtasdt0(v10, v12) = v13) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v14] : ? [v15] : (smndt0(v14) = v13 & smndt0(v10) = v15 & sdtasdt0(v15, v11) = v13 & sdtasdt0(v10, v11) = v14)) & ! [v10] : ! [v11] : ! [v12] : ! [v13] : ( ~ (smndt0(v10) = v12) | ~ (sdtasdt0(v12, v11) = v13) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v14] : ? [v15] : (smndt0(v15) = v13 & smndt0(v11) = v14 & sdtasdt0(v10, v14) = v13 & sdtasdt0(v10, v11) = v15)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz0z00 | ~ (sdtasasdt0(v10, v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : (aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13 & ( ~ (v14 = sz00) | ~ (v13 = sz00)))) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v11, v10) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz00 | ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : (sdtasasdt0(v14, v15) = v16 & sdtasasdt0(v10, v11) = v13 & sziznziztdt0(v11) = v15 & sziznziztdt0(v10) = v14 & sdtlbdtrb0(v11, v12) = v18 & sdtlbdtrb0(v10, v12) = v17 & sdtasdt0(v17, v18) = v19 & sdtpldt0(v16, v19) = v13)) & ! [v10] : ! [v11] : ! [v12] : (v12 = sz00 | ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : ? [v15] : (sziznziztdt0(v11) = v15 & sziznziztdt0(v10) = v13 & aDimensionOf0(v15) = v14 & aDimensionOf0(v13) = v14)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (sziznziztdt0(v12) = v11) | ~ (sziznziztdt0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (aDimensionOf0(v12) = v11) | ~ (aDimensionOf0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (smndt0(v12) = v11) | ~ (smndt0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (sdtasdt0(v11, v11) = v12) | ~ (sdtasdt0(v10, v10) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (szszuzczcdt0(v12) = v11) | ~ (szszuzczcdt0(v12) = v10)) & ! [v10] : ! [v11] : ! [v12] : (v11 = v10 | ~ (szszuzczcdt0(v11) = v12) | ~ (szszuzczcdt0(v10) = v12) | ~ aNaturalNumber0(v11) | ~ aNaturalNumber0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v0 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v11, v10) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : (v0 = sz0z00 | ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasasdt0(v10, v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | aScalar0(v12) | ? [v13] : ? [v14] : ( ~ (v14 = v13) & aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasasdt0(v10, v11) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : ? [v14] : ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : ? [v20] : ? [v21] : (sdtasasdt0(v15, v16) = v17 & sziznziztdt0(v11) = v16 & sziznziztdt0(v10) = v15 & sdtlbdtrb0(v11, v14) = v19 & sdtlbdtrb0(v10, v13) = v18 & aDimensionOf0(v11) = v14 & aDimensionOf0(v10) = v13 & sdtasdt0(v18, v19) = v20 & sdtpldt0(v17, v20) = v21 & ( ~ (v14 = v13) | v21 = v12 | v13 = sz00))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtlbdtrb0(v10, v11) = v12) | ~ aVector0(v10) | ~ aNaturalNumber0(v11) | aScalar0(v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ~ iLess0(v12, sz00) | ? [v13] : ? [v14] : ? [v15] : ? [v16] : ? [v17] : (sdtasasdt0(v11, v11) = v16 & sdtasasdt0(v10, v11) = v13 & sdtasasdt0(v10, v10) = v15 & sdtasdt0(v15, v16) = v17 & sdtasdt0(v13, v13) = v14 & sdtlseqdt0(v14, v17))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (aDimensionOf0(v11) = v12) | ~ (aDimensionOf0(v10) = v12) | ~ aVector0(v11) | ~ aVector0(v10) | ? [v13] : (sdtasasdt0(v10, v11) = v13 & aScalar0(v13))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v11, v10) = v12) | ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v10, v11) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (smndt0(v10) = v11) | ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v11, v10) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : (sdtpldt0(v10, v11) = v13 & sdtlseqdt0(sz0z00, v13))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | aScalar0(v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : ? [v14] : ? [v15] : (smndt0(v12) = v14 & smndt0(v11) = v13 & smndt0(v10) = v15 & sdtasdt0(v15, v11) = v14 & sdtasdt0(v10, v13) = v14)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtasdt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : ? [v14] : (smndt0(v11) = v14 & smndt0(v10) = v13 & sdtasdt0(v13, v14) = v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) | ~ sdtlseqdt0(sz0z00, v11) | ~ sdtlseqdt0(sz0z00, v10) | ~ aScalar0(v11) | ~ aScalar0(v10) | ? [v13] : (sdtasdt0(v10, v11) = v13 & sdtlseqdt0(sz0z00, v13))) & ! [v10] : ! [v11] : ! [v12] : ( ~ (sdtpldt0(v10, v11) = v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | aScalar0(v12)) & ! [v10] : ! [v11] : ! [v12] : ( ~ sdtlseqdt0(v11, v12) | ~ sdtlseqdt0(v10, v11) | ~ aScalar0(v12) | ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v10, v12)) & ! [v10] : ! [v11] : (v11 = v10 | ~ (sdtpldt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = v10 | ~ (sdtpldt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = v10 | ~ sdtlseqdt0(v11, v10) | ~ sdtlseqdt0(v10, v11) | ~ aScalar0(v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = sz0z00 | ~ (sdtasdt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = sz0z00 | ~ (sdtasdt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v11 = sz00 | ~ (aDimensionOf0(v10) = v11) | ~ aVector0(v10) | ? [v12] : (sziznziztdt0(v10) = v12 & ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v12, v14) = v15) | ~ (aDimensionOf0(v12) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v10, v14) = v15) & ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v10, v14) = v15) | ~ (aDimensionOf0(v12) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v12, v14) = v15) & ! [v13] : ! [v14] : (v13 = v12 | ~ (aDimensionOf0(v13) = v14) | ~ aVector0(v13) | ? [v15] : ? [v16] : ? [v17] : (( ~ (v17 = v16) & sdtlbdtrb0(v13, v15) = v16 & sdtlbdtrb0(v10, v15) = v17 & aNaturalNumber0(v15)) | ( ~ (v15 = v11) & szszuzczcdt0(v14) = v15))) & ! [v13] : ( ~ (aDimensionOf0(v12) = v13) | szszuzczcdt0(v13) = v11) & ! [v13] : ( ~ (aDimensionOf0(v12) = v13) | aVector0(v12)))) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (smndt0(v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtasdt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtasdt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtpldt0(v10, sz0z00) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : (v0 = sz0z00 | ~ (sdtpldt0(sz0z00, v10) = v11) | ~ aScalar0(v10)) & ! [v10] : ! [v11] : ( ~ (sdtasasdt0(v10, v10) = v11) | ~ aVector0(v10) | sdtlseqdt0(sz0z00, v11)) & ! [v10] : ! [v11] : ( ~ (sziznziztdt0(v10) = v11) | ~ aVector0(v10) | ? [v12] : (aDimensionOf0(v10) = v12 & (v12 = sz00 | ( ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v11, v14) = v15) | ~ (aDimensionOf0(v11) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v10, v14) = v15) & ! [v13] : ! [v14] : ! [v15] : ( ~ (sdtlbdtrb0(v10, v14) = v15) | ~ (aDimensionOf0(v11) = v13) | ~ aNaturalNumber0(v14) | sdtlbdtrb0(v11, v14) = v15) & ! [v13] : ! [v14] : (v13 = v11 | ~ (aDimensionOf0(v13) = v14) | ~ aVector0(v13) | ? [v15] : ? [v16] : ? [v17] : (( ~ (v17 = v16) & sdtlbdtrb0(v13, v15) = v16 & sdtlbdtrb0(v10, v15) = v17 & aNaturalNumber0(v15)) | ( ~ (v15 = v12) & szszuzczcdt0(v14) = v15))) & ! [v13] : ( ~ (aDimensionOf0(v11) = v13) | szszuzczcdt0(v13) = v12) & ! [v13] : ( ~ (aDimensionOf0(v11) = v13) | aVector0(v11)))))) & ! [v10] : ! [v11] : ( ~ (aDimensionOf0(v11) = sz00) | ~ (aDimensionOf0(v10) = sz00) | ~ aVector0(v11) | ~ aVector0(v10) | sdtasasdt0(v10, v11) = sz0z00) & ! [v10] : ! [v11] : ( ~ (aDimensionOf0(v10) = v11) | ~ aVector0(v10) | aNaturalNumber0(v11)) & ! [v10] : ! [v11] : ( ~ (smndt0(v10) = v11) | ~ aScalar0(v10) | aScalar0(v11)) & ! [v10] : ! [v11] : ( ~ (smndt0(v10) = v11) | ~ aScalar0(v10) | (smndt0(v11) = v10 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v11, v10) = sz0z00 & sdtpldt0(v10, v11) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtasdt0(v10, v10) = v11) | ~ aScalar0(v10) | sdtlseqdt0(sz0z00, v11)) & ! [v10] : ! [v11] : ( ~ (sdtasdt0(v10, sz0z00) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtasdt0(sz0z00, v10) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtpldt0(v10, sz0z00) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(sz0z00, v10) = v10)) & ! [v10] : ! [v11] : ( ~ (sdtpldt0(sz0z00, v10) = v11) | ~ aScalar0(v10) | ? [v12] : (smndt0(v12) = v10 & smndt0(v10) = v12 & sdtasdt0(v10, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v10) = sz0z00 & sdtpldt0(v12, v10) = sz0z00 & sdtpldt0(v10, v12) = sz0z00 & sdtpldt0(v10, sz0z00) = v10)) & ! [v10] : ! [v11] : ( ~ (szszuzczcdt0(v10) = v11) | ~ aNaturalNumber0(v10) | iLess0(v10, v11)) & ! [v10] : ! [v11] : ( ~ (szszuzczcdt0(v10) = v11) | ~ aNaturalNumber0(v10) | aNaturalNumber0(v11)) & ! [v10] : ! [v11] : ( ~ aScalar0(v11) | ~ aScalar0(v10) | sdtlseqdt0(v11, v10) | sdtlseqdt0(v10, v11)) & ! [v10] : (v10 = sz00 | ~ aNaturalNumber0(v10) | ? [v11] : (szszuzczcdt0(v11) = v10 & aNaturalNumber0(v11))) & ! [v10] : ( ~ (szszuzczcdt0(v10) = sz00) | ~ aNaturalNumber0(v10)) & ! [v10] : ( ~ aScalar0(v10) | sdtlseqdt0(v10, v10)))
% 8.60/2.60 | Instantiating (0) with all_0_0_0, all_0_1_1, all_0_2_2, all_0_3_3, all_0_4_4, all_0_5_5, all_0_6_6, all_0_7_7, all_0_8_8, all_0_9_9 yields:
% 8.60/2.60 | (1) sdtasasdt0(xt, xt) = all_0_1_1 & sdtasasdt0(xs, xt) = all_0_4_4 & sdtasasdt0(xs, xs) = all_0_2_2 & sziznziztdt0(xt) = all_0_7_7 & sziznziztdt0(xs) = all_0_8_8 & sdtlbdtrb0(xt, sz00) = all_0_5_5 & sdtlbdtrb0(xs, sz00) = all_0_6_6 & aDimensionOf0(xt) = sz00 & aDimensionOf0(xs) = sz00 & smndt0(sz0z00) = all_0_9_9 & sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0 & sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3 & aVector0(xt) & aVector0(xs) & aScalar0(sz0z00) & aNaturalNumber0(sz00) & ~ sdtlseqdt0(all_0_3_3, all_0_0_0) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) | ~ (sdtasdt0(v1, v2) = v7) | ~ (sdtasdt0(v0, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtpldt0(v7, v8) = v9) | ~ (sdtpldt0(v6, v9) = v10) | ~ (sdtpldt0(v4, v5) = v6) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v11] : ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : (v2 = sz00 | ~ (sdtasasdt0(v3, v4) = v5) | ~ (sziznziztdt0(v1) = v4) | ~ (sziznziztdt0(v0) = v3) | ~ (sdtlbdtrb0(v1, v2) = v7) | ~ (sdtlbdtrb0(v0, v2) = v6) | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ (sdtasdt0(v6, v7) = v8) | ~ (sdtpldt0(v5, v8) = v9) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) | ~ (sdtpldt0(v2, v3) = v5) | ~ (sdtpldt0(v0, v1) = v4) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ sdtlseqdt0(sz0z00, v2) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) | ~ (sdtasdt0(v0, v2) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) | ~ (sdtpldt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) | ~ (sdtasasdt0(v0, v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) | ~ iLess0(v5, sz00) | sdtlseqdt0(v8, v4)))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (smndt0(v1) = v3) | ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) | ~ (sdtasdt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) | ~ (sdtpldt0(v1, v2) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) | ~ (sdtpldt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v2 = sz00 | ~ (sziznziztdt0(v0) = v3) | ~ (aDimensionOf0(v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasasdt0(v3, v2) = v1) | ~ (sdtasasdt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtlbdtrb0(v3, v2) = v1) | ~ (sdtlbdtrb0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasdt0(v3, v2) = v1) | ~ (sdtasdt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtpldt0(v3, v2) = v1) | ~ (sdtpldt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ (sdtasdt0(v2, v2) = v3) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) | ~ iLess0(v4, sz00) | sdtlseqdt0(v3, v8)))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (sziznziztdt0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v1) = v2) | ~ (sdtasdt0(v0, v2) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v1) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) | ~ (v3 = sz00)))) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sziznziztdt0(v2) = v1) | ~ (sziznziztdt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (aDimensionOf0(v2) = v1) | ~ (aDimensionOf0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (smndt0(v2) = v1) | ~ (smndt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sdtasdt0(v1, v1) = v2) | ~ (sdtasdt0(v0, v0) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v2) = v1) | ~ (szszuzczcdt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v1) = v2) | ~ (szszuzczcdt0(v0) = v2) | ~ aNaturalNumber0(v1) | ~ aNaturalNumber0(v0)) & ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | aScalar0(v2) | ? [v3] : ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) | ~ aVector0(v0) | ~ aNaturalNumber0(v1) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ~ iLess0(v2, sz00) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ sdtlseqdt0(v1, v2) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v0, v2)) & ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = v0 | ~ sdtlseqdt0(v1, v0) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz00 | ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (sziznziztdt0(v0) = v2 & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) & ! [v3] : ! [v4] : (v3 = v2 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2)))) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) | ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1)) & ! [v0] : ! [v1] : ( ~ (sziznziztdt0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) & ! [v3] : ! [v4] : (v3 = v1 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1)))))) & ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) | ~ (aDimensionOf0(v0) = sz00) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00) & ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | aNaturalNumber0(v1)) & ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | aScalar0(v1)) & ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0)) & ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | iLess0(v0, v1)) & ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | aNaturalNumber0(v1)) & ! [v0] : ! [v1] : ( ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1)) & ! [v0] : (v0 = sz00 | ~ aNaturalNumber0(v0) | ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1))) & ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) | ~ aNaturalNumber0(v0)) & ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 8.65/2.63 |
% 8.65/2.63 | Applying alpha-rule on (1) yields:
% 8.65/2.63 | (2) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (aDimensionOf0(v2) = v1) | ~ (aDimensionOf0(v2) = v0))
% 8.65/2.64 | (3) ! [v0] : ! [v1] : ( ~ (sziznziztdt0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) & ! [v3] : ! [v4] : (v3 = v1 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1))))))
% 8.65/2.64 | (4) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 8.65/2.64 | (5) ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 8.65/2.64 | (6) ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 8.65/2.64 | (7) ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.64 | (8) sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0
% 8.65/2.64 | (9) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (smndt0(v1) = v3) | ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4)
% 8.65/2.64 | (10) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v1) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5))
% 8.65/2.64 | (11) smndt0(sz0z00) = all_0_9_9
% 8.65/2.64 | (12) ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.64 | (13) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) | ~ (sdtpldt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5))
% 8.65/2.64 | (14) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) | ~ (sdtasdt0(v0, v2) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9))
% 8.65/2.64 | (15) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2))
% 8.65/2.64 | (16) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (sziznziztdt0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00)))
% 8.65/2.64 | (17) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ (sdtasdt0(v2, v2) = v3) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) | ~ iLess0(v4, sz00) | sdtlseqdt0(v3, v8))))
% 8.65/2.64 | (18) ! [v0] : ! [v1] : (v1 = v0 | ~ sdtlseqdt0(v1, v0) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v1) | ~ aScalar0(v0))
% 8.65/2.64 | (19) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5))
% 8.65/2.64 | (20) sziznziztdt0(xs) = all_0_8_8
% 8.65/2.64 | (21) sziznziztdt0(xt) = all_0_7_7
% 8.65/2.64 | (22) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0))
% 8.65/2.64 | (23) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ sdtlseqdt0(sz0z00, v2) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 8.65/2.64 | (24) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtlbdtrb0(v3, v2) = v1) | ~ (sdtlbdtrb0(v3, v2) = v0))
% 8.65/2.65 | (25) aScalar0(sz0z00)
% 8.65/2.65 | (26) ! [v0] : ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0))
% 8.65/2.65 | (27) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 8.65/2.65 | (28) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasasdt0(v3, v2) = v1) | ~ (sdtasasdt0(v3, v2) = v0))
% 8.65/2.65 | (29) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) | ~ (sdtpldt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 8.65/2.65 | (30) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v2 = sz00 | ~ (sziznziztdt0(v0) = v3) | ~ (aDimensionOf0(v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5)))
% 8.65/2.65 | (31) ! [v0] : ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) | ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1))
% 8.65/2.65 | (32) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00)))
% 8.65/2.65 | (33) ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0))
% 8.65/2.65 | (34) ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ~ iLess0(v2, sz00) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7)))
% 8.65/2.65 | (35) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sdtasdt0(v1, v1) = v2) | ~ (sdtasdt0(v0, v0) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0))
% 8.65/2.65 | (36) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) | ~ (sdtasasdt0(v0, v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) | ~ iLess0(v5, sz00) | sdtlseqdt0(v8, v4))))
% 8.65/2.65 | (37) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 8.65/2.65 | (38) ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1))
% 8.65/2.65 | (39) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) | ~ (sdtasdt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 8.65/2.65 | (40) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00)))
% 8.65/2.65 | (41) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7))
% 8.65/2.65 | (42) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) | ~ (v3 = sz00))))
% 8.65/2.65 | (43) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sziznziztdt0(v2) = v1) | ~ (sziznziztdt0(v2) = v0))
% 8.65/2.65 | (44) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) | ~ (sdtasdt0(v1, v2) = v7) | ~ (sdtasdt0(v0, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtpldt0(v7, v8) = v9) | ~ (sdtpldt0(v6, v9) = v10) | ~ (sdtpldt0(v4, v5) = v6) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v11] : ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11))
% 8.65/2.65 | (45) ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 8.65/2.65 | (46) ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) | ~ aNaturalNumber0(v0))
% 8.65/2.65 | (47) aVector0(xt)
% 8.65/2.65 | (48) ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 8.65/2.65 | (49) ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | iLess0(v0, v1))
% 8.65/2.65 | (50) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) | ~ (sdtpldt0(v1, v2) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7))
% 8.65/2.66 | (51) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ aScalar0(v0))
% 8.65/2.66 | (52) ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3)))
% 8.65/2.66 | (53) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2))
% 8.65/2.66 | (54) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (smndt0(v2) = v1) | ~ (smndt0(v2) = v0))
% 8.65/2.66 | (55) ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | aNaturalNumber0(v1))
% 8.65/2.66 | (56) sdtlbdtrb0(xs, sz00) = all_0_6_6
% 8.65/2.66 | (57) aDimensionOf0(xs) = sz00
% 8.65/2.66 | (58) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtpldt0(v3, v2) = v1) | ~ (sdtpldt0(v3, v2) = v0))
% 8.65/2.66 | (59) ! [v0] : ! [v1] : ( ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1))
% 8.65/2.66 | (60) ! [v0] : ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.66 | (61) ~ sdtlseqdt0(all_0_3_3, all_0_0_0)
% 8.65/2.66 | (62) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v1) = v2) | ~ (sdtasdt0(v0, v2) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4))
% 8.65/2.66 | (63) sdtasasdt0(xs, xs) = all_0_2_2
% 8.65/2.66 | (64) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4))
% 8.65/2.66 | (65) ! [v0] : ! [v1] : (v1 = sz00 | ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (sziznziztdt0(v0) = v2 & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) & ! [v3] : ! [v4] : (v3 = v2 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2))))
% 8.65/2.66 | (66) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 8.65/2.66 | (67) ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | aScalar0(v1))
% 8.65/2.66 | (68) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) | ~ aVector0(v0) | ~ aNaturalNumber0(v1) | aScalar0(v2))
% 8.65/2.66 | (69) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 8.65/2.66 | (70) sdtlbdtrb0(xt, sz00) = all_0_5_5
% 8.65/2.66 | (71) sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3
% 8.65/2.66 | (72) ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) | ~ (aDimensionOf0(v0) = sz00) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00)
% 8.65/2.66 | (73) sdtasasdt0(xt, xt) = all_0_1_1
% 8.65/2.66 | (74) aNaturalNumber0(sz00)
% 8.65/2.66 | (75) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) | ~ (sdtpldt0(v2, v3) = v5) | ~ (sdtpldt0(v0, v1) = v4) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9))
% 8.65/2.66 | (76) ! [v0] : ! [v1] : ! [v2] : (all_0_9_9 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0))
% 8.65/2.66 | (77) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasdt0(v3, v2) = v1) | ~ (sdtasdt0(v3, v2) = v0))
% 8.65/2.66 | (78) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0))
% 8.65/2.66 | (79) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v2) = v1) | ~ (szszuzczcdt0(v2) = v0))
% 8.65/2.66 | (80) ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3))
% 8.65/2.66 | (81) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 8.65/2.66 | (82) aVector0(xs)
% 8.65/2.66 | (83) ! [v0] : ! [v1] : ! [v2] : ( ~ sdtlseqdt0(v1, v2) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v0, v2))
% 8.65/2.66 | (84) ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | aNaturalNumber0(v1))
% 8.65/2.66 | (85) ! [v0] : (v0 = sz00 | ~ aNaturalNumber0(v0) | ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1)))
% 8.65/2.66 | (86) aDimensionOf0(xt) = sz00
% 8.65/2.66 | (87) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | aScalar0(v2) | ? [v3] : ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3))
% 8.65/2.66 | (88) ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.66 | (89) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 8.65/2.67 | (90) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : (v2 = sz00 | ~ (sdtasasdt0(v3, v4) = v5) | ~ (sziznziztdt0(v1) = v4) | ~ (sziznziztdt0(v0) = v3) | ~ (sdtlbdtrb0(v1, v2) = v7) | ~ (sdtlbdtrb0(v0, v2) = v6) | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ (sdtasdt0(v6, v7) = v8) | ~ (sdtpldt0(v5, v8) = v9) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9)
% 8.65/2.67 | (91) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v1) = v2) | ~ (szszuzczcdt0(v0) = v2) | ~ aNaturalNumber0(v1) | ~ aNaturalNumber0(v0))
% 8.65/2.67 | (92) ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.67 | (93) sdtasasdt0(xs, xt) = all_0_4_4
% 8.65/2.67 | (94) ! [v0] : ! [v1] : (all_0_9_9 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 8.65/2.67 | (95) ! [v0] : ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 8.65/2.67 | (96) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 8.65/2.67 | (97) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2))
% 8.65/2.67 | (98) ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4))
% 8.65/2.67 | (99) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4))
% 8.65/2.67 | (100) ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (52) with sz00, xt, xt and discharging atoms aDimensionOf0(xt) = sz00, aVector0(xt), yields:
% 8.65/2.67 | (101) ? [v0] : (sdtasasdt0(xt, xt) = v0 & aScalar0(v0))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (72) with xt, xt and discharging atoms aDimensionOf0(xt) = sz00, aVector0(xt), yields:
% 8.65/2.67 | (102) sdtasasdt0(xt, xt) = sz0z00
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (36) with all_0_0_0, all_0_1_1, all_0_2_2, xt, xs and discharging atoms sdtasasdt0(xt, xt) = all_0_1_1, sdtasasdt0(xs, xs) = all_0_2_2, sdtasdt0(all_0_2_2, all_0_1_1) = all_0_0_0, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67 | (103) ? [v0] : ? [v1] : ? [v2] : ? [v3] : (sdtasasdt0(xs, xt) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v2, v2) = v3 & ( ~ (v1 = v0) | ~ iLess0(v0, sz00) | sdtlseqdt0(v3, all_0_0_0)))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (17) with all_0_3_3, all_0_4_4, xt, xs and discharging atoms sdtasasdt0(xs, xt) = all_0_4_4, sdtasdt0(all_0_4_4, all_0_4_4) = all_0_3_3, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67 | (104) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : (sdtasasdt0(xt, xt) = v3 & sdtasasdt0(xs, xs) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v2, v3) = v4 & ( ~ (v1 = v0) | ~ iLess0(v0, sz00) | sdtlseqdt0(all_0_3_3, v4)))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (40) with all_0_4_4, xt, xs and discharging atoms sdtasasdt0(xs, xt) = all_0_4_4, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67 | (105) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v2, v3) = v4 & sziznziztdt0(xt) = v3 & sziznziztdt0(xs) = v2 & sdtlbdtrb0(xt, v1) = v6 & sdtlbdtrb0(xs, v0) = v5 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v5, v6) = v7 & sdtpldt0(v4, v7) = v8 & ( ~ (v1 = v0) | v8 = all_0_4_4 | v0 = sz00))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (87) with all_0_2_2, xs, xs and discharging atoms sdtasasdt0(xs, xs) = all_0_2_2, aVector0(xs), yields:
% 8.65/2.67 | (106) aScalar0(all_0_2_2) | ? [v0] : ? [v1] : ( ~ (v1 = v0) & aDimensionOf0(xs) = v1 & aDimensionOf0(xs) = v0)
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (40) with all_0_2_2, xs, xs and discharging atoms sdtasasdt0(xs, xs) = all_0_2_2, aVector0(xs), yields:
% 8.65/2.67 | (107) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v2, v3) = v4 & sziznziztdt0(xs) = v3 & sziznziztdt0(xs) = v2 & sdtlbdtrb0(xs, v1) = v6 & sdtlbdtrb0(xs, v0) = v5 & aDimensionOf0(xs) = v1 & aDimensionOf0(xs) = v0 & sdtasdt0(v5, v6) = v7 & sdtpldt0(v4, v7) = v8 & ( ~ (v1 = v0) | v8 = all_0_2_2 | v0 = sz00))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (31) with all_0_2_2, xs and discharging atoms sdtasasdt0(xs, xs) = all_0_2_2, aVector0(xs), yields:
% 8.65/2.67 | (108) sdtlseqdt0(sz0z00, all_0_2_2)
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (52) with sz00, xt, xs and discharging atoms aDimensionOf0(xt) = sz00, aDimensionOf0(xs) = sz00, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67 | (109) ? [v0] : (sdtasasdt0(xs, xt) = v0 & aScalar0(v0))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (72) with xt, xs and discharging atoms aDimensionOf0(xt) = sz00, aDimensionOf0(xs) = sz00, aVector0(xt), aVector0(xs), yields:
% 8.65/2.67 | (110) sdtasasdt0(xs, xt) = sz0z00
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (52) with sz00, xs, xs and discharging atoms aDimensionOf0(xs) = sz00, aVector0(xs), yields:
% 8.65/2.67 | (111) ? [v0] : (sdtasasdt0(xs, xs) = v0 & aScalar0(v0))
% 8.65/2.67 |
% 8.65/2.67 | Instantiating formula (72) with xs, xs and discharging atoms aDimensionOf0(xs) = sz00, aVector0(xs), yields:
% 8.65/2.67 | (112) sdtasasdt0(xs, xs) = sz0z00
% 8.65/2.67 |
% 8.65/2.67 | Instantiating (109) with all_13_0_10 yields:
% 8.65/2.67 | (113) sdtasasdt0(xs, xt) = all_13_0_10 & aScalar0(all_13_0_10)
% 8.65/2.68 |
% 8.65/2.68 | Applying alpha-rule on (113) yields:
% 8.65/2.68 | (114) sdtasasdt0(xs, xt) = all_13_0_10
% 8.65/2.68 | (115) aScalar0(all_13_0_10)
% 8.65/2.68 |
% 8.65/2.68 | Instantiating (105) with all_15_0_11, all_15_1_12, all_15_2_13, all_15_3_14, all_15_4_15, all_15_5_16, all_15_6_17, all_15_7_18, all_15_8_19 yields:
% 8.65/2.68 | (116) sdtasasdt0(all_15_6_17, all_15_5_16) = all_15_4_15 & sziznziztdt0(xt) = all_15_5_16 & sziznziztdt0(xs) = all_15_6_17 & sdtlbdtrb0(xt, all_15_7_18) = all_15_2_13 & sdtlbdtrb0(xs, all_15_8_19) = all_15_3_14 & aDimensionOf0(xt) = all_15_7_18 & aDimensionOf0(xs) = all_15_8_19 & sdtasdt0(all_15_3_14, all_15_2_13) = all_15_1_12 & sdtpldt0(all_15_4_15, all_15_1_12) = all_15_0_11 & ( ~ (all_15_7_18 = all_15_8_19) | all_15_0_11 = all_0_4_4 | all_15_8_19 = sz00)
% 8.65/2.68 |
% 8.65/2.68 | Applying alpha-rule on (116) yields:
% 8.65/2.68 | (117) sdtasdt0(all_15_3_14, all_15_2_13) = all_15_1_12
% 8.65/2.68 | (118) aDimensionOf0(xs) = all_15_8_19
% 8.65/2.68 | (119) aDimensionOf0(xt) = all_15_7_18
% 8.65/2.68 | (120) sziznziztdt0(xs) = all_15_6_17
% 8.65/2.68 | (121) ~ (all_15_7_18 = all_15_8_19) | all_15_0_11 = all_0_4_4 | all_15_8_19 = sz00
% 8.65/2.68 | (122) sdtpldt0(all_15_4_15, all_15_1_12) = all_15_0_11
% 8.65/2.68 | (123) sdtlbdtrb0(xs, all_15_8_19) = all_15_3_14
% 8.65/2.68 | (124) sdtlbdtrb0(xt, all_15_7_18) = all_15_2_13
% 8.65/2.68 | (125) sdtasasdt0(all_15_6_17, all_15_5_16) = all_15_4_15
% 8.65/2.68 | (126) sziznziztdt0(xt) = all_15_5_16
% 8.65/2.68 |
% 8.65/2.68 | Instantiating (111) with all_17_0_20 yields:
% 8.65/2.68 | (127) sdtasasdt0(xs, xs) = all_17_0_20 & aScalar0(all_17_0_20)
% 8.65/2.68 |
% 8.65/2.68 | Applying alpha-rule on (127) yields:
% 8.65/2.68 | (128) sdtasasdt0(xs, xs) = all_17_0_20
% 8.65/2.68 | (129) aScalar0(all_17_0_20)
% 8.65/2.68 |
% 8.65/2.68 | Instantiating (101) with all_21_0_22 yields:
% 8.65/2.68 | (130) sdtasasdt0(xt, xt) = all_21_0_22 & aScalar0(all_21_0_22)
% 8.65/2.68 |
% 8.65/2.68 | Applying alpha-rule on (130) yields:
% 8.65/2.68 | (131) sdtasasdt0(xt, xt) = all_21_0_22
% 8.65/2.68 | (132) aScalar0(all_21_0_22)
% 8.65/2.68 |
% 8.65/2.68 | Instantiating (107) with all_25_0_32, all_25_1_33, all_25_2_34, all_25_3_35, all_25_4_36, all_25_5_37, all_25_6_38, all_25_7_39, all_25_8_40 yields:
% 8.65/2.68 | (133) sdtasasdt0(all_25_6_38, all_25_5_37) = all_25_4_36 & sziznziztdt0(xs) = all_25_5_37 & sziznziztdt0(xs) = all_25_6_38 & sdtlbdtrb0(xs, all_25_7_39) = all_25_2_34 & sdtlbdtrb0(xs, all_25_8_40) = all_25_3_35 & aDimensionOf0(xs) = all_25_7_39 & aDimensionOf0(xs) = all_25_8_40 & sdtasdt0(all_25_3_35, all_25_2_34) = all_25_1_33 & sdtpldt0(all_25_4_36, all_25_1_33) = all_25_0_32 & ( ~ (all_25_7_39 = all_25_8_40) | all_25_0_32 = all_0_2_2 | all_25_8_40 = sz00)
% 8.65/2.68 |
% 8.65/2.68 | Applying alpha-rule on (133) yields:
% 8.65/2.68 | (134) aDimensionOf0(xs) = all_25_8_40
% 8.65/2.68 | (135) ~ (all_25_7_39 = all_25_8_40) | all_25_0_32 = all_0_2_2 | all_25_8_40 = sz00
% 8.65/2.68 | (136) sziznziztdt0(xs) = all_25_5_37
% 8.65/2.68 | (137) aDimensionOf0(xs) = all_25_7_39
% 8.65/2.68 | (138) sdtasdt0(all_25_3_35, all_25_2_34) = all_25_1_33
% 8.65/2.68 | (139) sdtlbdtrb0(xs, all_25_7_39) = all_25_2_34
% 8.65/2.68 | (140) sdtpldt0(all_25_4_36, all_25_1_33) = all_25_0_32
% 8.65/2.68 | (141) sdtasasdt0(all_25_6_38, all_25_5_37) = all_25_4_36
% 8.65/2.68 | (142) sziznziztdt0(xs) = all_25_6_38
% 8.65/2.68 | (143) sdtlbdtrb0(xs, all_25_8_40) = all_25_3_35
% 8.65/2.68 |
% 8.65/2.68 | Instantiating (104) with all_27_0_41, all_27_1_42, all_27_2_43, all_27_3_44, all_27_4_45 yields:
% 8.65/2.68 | (144) sdtasasdt0(xt, xt) = all_27_1_42 & sdtasasdt0(xs, xs) = all_27_2_43 & aDimensionOf0(xt) = all_27_3_44 & aDimensionOf0(xs) = all_27_4_45 & sdtasdt0(all_27_2_43, all_27_1_42) = all_27_0_41 & ( ~ (all_27_3_44 = all_27_4_45) | ~ iLess0(all_27_4_45, sz00) | sdtlseqdt0(all_0_3_3, all_27_0_41))
% 8.65/2.68 |
% 8.65/2.68 | Applying alpha-rule on (144) yields:
% 8.65/2.68 | (145) sdtasasdt0(xs, xs) = all_27_2_43
% 8.65/2.68 | (146) ~ (all_27_3_44 = all_27_4_45) | ~ iLess0(all_27_4_45, sz00) | sdtlseqdt0(all_0_3_3, all_27_0_41)
% 8.65/2.68 | (147) aDimensionOf0(xs) = all_27_4_45
% 8.65/2.68 | (148) sdtasasdt0(xt, xt) = all_27_1_42
% 8.65/2.68 | (149) sdtasdt0(all_27_2_43, all_27_1_42) = all_27_0_41
% 8.65/2.68 | (150) aDimensionOf0(xt) = all_27_3_44
% 8.65/2.68 |
% 8.65/2.68 | Instantiating (103) with all_29_0_46, all_29_1_47, all_29_2_48, all_29_3_49 yields:
% 8.65/2.68 | (151) sdtasasdt0(xs, xt) = all_29_1_47 & aDimensionOf0(xt) = all_29_2_48 & aDimensionOf0(xs) = all_29_3_49 & sdtasdt0(all_29_1_47, all_29_1_47) = all_29_0_46 & ( ~ (all_29_2_48 = all_29_3_49) | ~ iLess0(all_29_3_49, sz00) | sdtlseqdt0(all_29_0_46, all_0_0_0))
% 8.65/2.68 |
% 8.65/2.68 | Applying alpha-rule on (151) yields:
% 8.65/2.68 | (152) sdtasdt0(all_29_1_47, all_29_1_47) = all_29_0_46
% 8.65/2.68 | (153) sdtasasdt0(xs, xt) = all_29_1_47
% 8.65/2.68 | (154) ~ (all_29_2_48 = all_29_3_49) | ~ iLess0(all_29_3_49, sz00) | sdtlseqdt0(all_29_0_46, all_0_0_0)
% 8.65/2.68 | (155) aDimensionOf0(xt) = all_29_2_48
% 8.65/2.68 | (156) aDimensionOf0(xs) = all_29_3_49
% 8.65/2.68 |
% 8.65/2.68 +-Applying beta-rule and splitting (106), into two cases.
% 8.65/2.68 |-Branch one:
% 8.65/2.68 | (157) aScalar0(all_0_2_2)
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xt, xt, all_27_1_42, all_0_1_1 and discharging atoms sdtasasdt0(xt, xt) = all_27_1_42, sdtasasdt0(xt, xt) = all_0_1_1, yields:
% 8.65/2.68 | (158) all_27_1_42 = all_0_1_1
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xt, xt, all_21_0_22, all_27_1_42 and discharging atoms sdtasasdt0(xt, xt) = all_27_1_42, sdtasasdt0(xt, xt) = all_21_0_22, yields:
% 8.65/2.68 | (159) all_27_1_42 = all_21_0_22
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xt, xt, sz0z00, all_27_1_42 and discharging atoms sdtasasdt0(xt, xt) = all_27_1_42, sdtasasdt0(xt, xt) = sz0z00, yields:
% 8.65/2.68 | (160) all_27_1_42 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xs, xt, all_13_0_10, all_0_4_4 and discharging atoms sdtasasdt0(xs, xt) = all_13_0_10, sdtasasdt0(xs, xt) = all_0_4_4, yields:
% 8.65/2.68 | (161) all_13_0_10 = all_0_4_4
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xs, xt, all_13_0_10, all_29_1_47 and discharging atoms sdtasasdt0(xs, xt) = all_29_1_47, sdtasasdt0(xs, xt) = all_13_0_10, yields:
% 8.65/2.68 | (162) all_29_1_47 = all_13_0_10
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xs, xt, sz0z00, all_29_1_47 and discharging atoms sdtasasdt0(xs, xt) = all_29_1_47, sdtasasdt0(xs, xt) = sz0z00, yields:
% 8.65/2.68 | (163) all_29_1_47 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xs, xs, all_27_2_43, all_0_2_2 and discharging atoms sdtasasdt0(xs, xs) = all_27_2_43, sdtasasdt0(xs, xs) = all_0_2_2, yields:
% 8.65/2.68 | (164) all_27_2_43 = all_0_2_2
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xs, xs, all_17_0_20, all_27_2_43 and discharging atoms sdtasasdt0(xs, xs) = all_27_2_43, sdtasasdt0(xs, xs) = all_17_0_20, yields:
% 8.65/2.68 | (165) all_27_2_43 = all_17_0_20
% 8.65/2.68 |
% 8.65/2.68 | Instantiating formula (28) with xs, xs, sz0z00, all_17_0_20 and discharging atoms sdtasasdt0(xs, xs) = all_17_0_20, sdtasasdt0(xs, xs) = sz0z00, yields:
% 8.65/2.68 | (166) all_17_0_20 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Combining equations (162,163) yields a new equation:
% 8.65/2.68 | (167) all_13_0_10 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Simplifying 167 yields:
% 8.65/2.68 | (168) all_13_0_10 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Combining equations (160,159) yields a new equation:
% 8.65/2.68 | (169) all_21_0_22 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Combining equations (158,159) yields a new equation:
% 8.65/2.68 | (170) all_21_0_22 = all_0_1_1
% 8.65/2.68 |
% 8.65/2.68 | Combining equations (165,164) yields a new equation:
% 8.65/2.68 | (171) all_17_0_20 = all_0_2_2
% 8.65/2.68 |
% 8.65/2.68 | Simplifying 171 yields:
% 8.65/2.68 | (172) all_17_0_20 = all_0_2_2
% 8.65/2.68 |
% 8.65/2.68 | Combining equations (170,169) yields a new equation:
% 8.65/2.68 | (173) all_0_1_1 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Simplifying 173 yields:
% 8.65/2.68 | (174) all_0_1_1 = sz0z00
% 8.65/2.68 |
% 8.65/2.68 | Combining equations (166,172) yields a new equation:
% 8.65/2.68 | (175) all_0_2_2 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (161,168) yields a new equation:
% 8.65/2.69 | (176) all_0_4_4 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 176 yields:
% 8.65/2.69 | (177) all_0_4_4 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (175,164) yields a new equation:
% 8.65/2.69 | (178) all_27_2_43 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (169,159) yields a new equation:
% 8.65/2.69 | (160) all_27_1_42 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | From (163)(163) and (152) follows:
% 8.65/2.69 | (180) sdtasdt0(sz0z00, sz0z00) = all_29_0_46
% 8.65/2.69 |
% 8.65/2.69 | From (178)(160) and (149) follows:
% 8.65/2.69 | (181) sdtasdt0(sz0z00, sz0z00) = all_27_0_41
% 8.65/2.69 |
% 8.65/2.69 | From (175)(174) and (8) follows:
% 8.65/2.69 | (182) sdtasdt0(sz0z00, sz0z00) = all_0_0_0
% 8.65/2.69 |
% 8.65/2.69 | From (177)(177) and (71) follows:
% 8.65/2.69 | (183) sdtasdt0(sz0z00, sz0z00) = all_0_3_3
% 8.65/2.69 |
% 8.65/2.69 | From (175) and (108) follows:
% 8.65/2.69 | (184) sdtlseqdt0(sz0z00, sz0z00)
% 8.65/2.69 |
% 8.65/2.69 | From (175) and (157) follows:
% 8.65/2.69 | (25) aScalar0(sz0z00)
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (77) with sz0z00, sz0z00, all_27_0_41, all_29_0_46 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_29_0_46, sdtasdt0(sz0z00, sz0z00) = all_27_0_41, yields:
% 8.65/2.69 | (186) all_29_0_46 = all_27_0_41
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (100) with all_27_0_41, sz0z00 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_27_0_41, aScalar0(sz0z00), yields:
% 8.65/2.69 | (187) all_27_0_41 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (77) with sz0z00, sz0z00, all_0_0_0, all_29_0_46 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_29_0_46, sdtasdt0(sz0z00, sz0z00) = all_0_0_0, yields:
% 8.65/2.69 | (188) all_29_0_46 = all_0_0_0
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (77) with sz0z00, sz0z00, all_0_3_3, all_29_0_46 and discharging atoms sdtasdt0(sz0z00, sz0z00) = all_29_0_46, sdtasdt0(sz0z00, sz0z00) = all_0_3_3, yields:
% 8.65/2.69 | (189) all_29_0_46 = all_0_3_3
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (186,188) yields a new equation:
% 8.65/2.69 | (190) all_27_0_41 = all_0_0_0
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 190 yields:
% 8.65/2.69 | (191) all_27_0_41 = all_0_0_0
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (189,188) yields a new equation:
% 8.65/2.69 | (192) all_0_0_0 = all_0_3_3
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (191,187) yields a new equation:
% 8.65/2.69 | (193) all_0_0_0 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 193 yields:
% 8.65/2.69 | (194) all_0_0_0 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (192,194) yields a new equation:
% 8.65/2.69 | (195) all_0_3_3 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 195 yields:
% 8.65/2.69 | (196) all_0_3_3 = sz0z00
% 8.65/2.69 |
% 8.65/2.69 | From (196)(194) and (61) follows:
% 8.65/2.69 | (197) ~ sdtlseqdt0(sz0z00, sz0z00)
% 8.65/2.69 |
% 8.65/2.69 | Using (184) and (197) yields:
% 8.65/2.69 | (198) $false
% 8.65/2.69 |
% 8.65/2.69 |-The branch is then unsatisfiable
% 8.65/2.69 |-Branch two:
% 8.65/2.69 | (199) ~ aScalar0(all_0_2_2)
% 8.65/2.69 | (200) ? [v0] : ? [v1] : ( ~ (v1 = v0) & aDimensionOf0(xs) = v1 & aDimensionOf0(xs) = v0)
% 8.65/2.69 |
% 8.65/2.69 | Instantiating (200) with all_39_0_50, all_39_1_51 yields:
% 8.65/2.69 | (201) ~ (all_39_0_50 = all_39_1_51) & aDimensionOf0(xs) = all_39_0_50 & aDimensionOf0(xs) = all_39_1_51
% 8.65/2.69 |
% 8.65/2.69 | Applying alpha-rule on (201) yields:
% 8.65/2.69 | (202) ~ (all_39_0_50 = all_39_1_51)
% 8.65/2.69 | (203) aDimensionOf0(xs) = all_39_0_50
% 8.65/2.69 | (204) aDimensionOf0(xs) = all_39_1_51
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (2) with xs, all_39_1_51, all_39_0_50 and discharging atoms aDimensionOf0(xs) = all_39_0_50, aDimensionOf0(xs) = all_39_1_51, yields:
% 8.65/2.69 | (205) all_39_0_50 = all_39_1_51
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (2) with xs, all_29_3_49, all_39_1_51 and discharging atoms aDimensionOf0(xs) = all_39_1_51, aDimensionOf0(xs) = all_29_3_49, yields:
% 8.65/2.69 | (206) all_39_1_51 = all_29_3_49
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (2) with xs, all_27_4_45, all_39_0_50 and discharging atoms aDimensionOf0(xs) = all_39_0_50, aDimensionOf0(xs) = all_27_4_45, yields:
% 8.65/2.69 | (207) all_39_0_50 = all_27_4_45
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (2) with xs, all_25_7_39, all_39_0_50 and discharging atoms aDimensionOf0(xs) = all_39_0_50, aDimensionOf0(xs) = all_25_7_39, yields:
% 8.65/2.69 | (208) all_39_0_50 = all_25_7_39
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (2) with xs, all_25_8_40, sz00 and discharging atoms aDimensionOf0(xs) = all_25_8_40, aDimensionOf0(xs) = sz00, yields:
% 8.65/2.69 | (209) all_25_8_40 = sz00
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (2) with xs, all_25_8_40, all_25_7_39 and discharging atoms aDimensionOf0(xs) = all_25_7_39, aDimensionOf0(xs) = all_25_8_40, yields:
% 8.65/2.69 | (210) all_25_7_39 = all_25_8_40
% 8.65/2.69 |
% 8.65/2.69 | Instantiating formula (2) with xs, all_15_8_19, all_39_1_51 and discharging atoms aDimensionOf0(xs) = all_39_1_51, aDimensionOf0(xs) = all_15_8_19, yields:
% 8.65/2.69 | (211) all_39_1_51 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (208,207) yields a new equation:
% 8.65/2.69 | (212) all_27_4_45 = all_25_7_39
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (205,207) yields a new equation:
% 8.65/2.69 | (213) all_39_1_51 = all_27_4_45
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 213 yields:
% 8.65/2.69 | (214) all_39_1_51 = all_27_4_45
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (211,206) yields a new equation:
% 8.65/2.69 | (215) all_29_3_49 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (214,206) yields a new equation:
% 8.65/2.69 | (216) all_29_3_49 = all_27_4_45
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (216,215) yields a new equation:
% 8.65/2.69 | (217) all_27_4_45 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 217 yields:
% 8.65/2.69 | (218) all_27_4_45 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (212,218) yields a new equation:
% 8.65/2.69 | (219) all_25_7_39 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 219 yields:
% 8.65/2.69 | (220) all_25_7_39 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (210,220) yields a new equation:
% 8.65/2.69 | (221) all_25_8_40 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 221 yields:
% 8.65/2.69 | (222) all_25_8_40 = all_15_8_19
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (222,209) yields a new equation:
% 8.65/2.69 | (223) all_15_8_19 = sz00
% 8.65/2.69 |
% 8.65/2.69 | Simplifying 223 yields:
% 8.65/2.69 | (224) all_15_8_19 = sz00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (224,218) yields a new equation:
% 8.65/2.69 | (225) all_27_4_45 = sz00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (224,215) yields a new equation:
% 8.65/2.69 | (226) all_29_3_49 = sz00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (226,206) yields a new equation:
% 8.65/2.69 | (227) all_39_1_51 = sz00
% 8.65/2.69 |
% 8.65/2.69 | Combining equations (225,207) yields a new equation:
% 8.65/2.69 | (228) all_39_0_50 = sz00
% 8.65/2.69 |
% 8.65/2.69 | Equations (228,227) can reduce 202 to:
% 8.65/2.69 | (229) $false
% 8.65/2.69 |
% 8.65/2.69 |-The branch is then unsatisfiable
% 8.65/2.69 % SZS output end Proof for theBenchmark
% 8.65/2.69
% 8.65/2.69 2090ms
%------------------------------------------------------------------------------