TSTP Solution File: RNG069+2 by ePrincess---1.0
View Problem
- Process Solution
%------------------------------------------------------------------------------
% File : ePrincess---1.0
% Problem : RNG069+2 : TPTP v8.1.0. Released v4.0.0.
% Transfm : none
% Format : tptp:raw
% Command : ePrincess-casc -timeout=%d %s
% Computer : n024.cluster.edu
% Model : x86_64 x86_64
% CPU : Intel(R) Xeon(R) CPU E5-2620 v4 2.10GHz
% Memory : 8042.1875MB
% OS : Linux 3.10.0-693.el7.x86_64
% CPULimit : 300s
% WCLimit : 600s
% DateTime : Mon Jul 18 20:25:15 EDT 2022
% Result : Theorem 6.54s 2.07s
% Output : Proof 13.34s
% Verified :
% SZS Type : -
% Comments :
%------------------------------------------------------------------------------
%----WARNING: Could not form TPTP format derivation
%------------------------------------------------------------------------------
%----ORIGINAL SYSTEM OUTPUT
% 0.07/0.12 % Problem : RNG069+2 : TPTP v8.1.0. Released v4.0.0.
% 0.07/0.13 % Command : ePrincess-casc -timeout=%d %s
% 0.14/0.34 % Computer : n024.cluster.edu
% 0.14/0.34 % Model : x86_64 x86_64
% 0.14/0.34 % CPU : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz
% 0.14/0.34 % Memory : 8042.1875MB
% 0.14/0.34 % OS : Linux 3.10.0-693.el7.x86_64
% 0.14/0.34 % CPULimit : 300
% 0.14/0.34 % WCLimit : 600
% 0.14/0.34 % DateTime : Mon May 30 19:22:51 EDT 2022
% 0.14/0.34 % CPUTime :
% 0.21/0.60 ____ _
% 0.21/0.60 ___ / __ \_____(_)___ ________ __________
% 0.21/0.60 / _ \/ /_/ / ___/ / __ \/ ___/ _ \/ ___/ ___/
% 0.21/0.60 / __/ ____/ / / / / / / /__/ __(__ |__ )
% 0.21/0.60 \___/_/ /_/ /_/_/ /_/\___/\___/____/____/
% 0.21/0.60
% 0.21/0.60 A Theorem Prover for First-Order Logic
% 0.21/0.60 (ePrincess v.1.0)
% 0.21/0.60
% 0.21/0.60 (c) Philipp Rümmer, 2009-2015
% 0.21/0.60 (c) Peter Backeman, 2014-2015
% 0.21/0.60 (contributions by Angelo Brillout, Peter Baumgartner)
% 0.21/0.60 Free software under GNU Lesser General Public License (LGPL).
% 0.21/0.60 Bug reports to peter@backeman.se
% 0.21/0.60
% 0.21/0.60 For more information, visit http://user.uu.se/~petba168/breu/
% 0.21/0.60
% 0.21/0.60 Loading /export/starexec/sandbox/benchmark/theBenchmark.p ...
% 0.73/0.65 Prover 0: Options: -triggersInConjecture -genTotalityAxioms -tightFunctionScopes -clausifier=simple -reverseFunctionalityPropagation +boolFunsAsPreds -triggerStrategy=allMaximal -resolutionMethod=nonUnifying +ignoreQuantifiers -generateTriggers=all
% 2.08/1.02 Prover 0: Preprocessing ...
% 4.24/1.55 Prover 0: Constructing countermodel ...
% 6.54/2.07 Prover 0: proved (1420ms)
% 6.54/2.07
% 6.54/2.07 No countermodel exists, formula is valid
% 6.54/2.07 % SZS status Theorem for theBenchmark
% 6.54/2.07
% 6.54/2.07 Generating proof ... found it (size 66)
% 12.56/3.48
% 12.56/3.48 % SZS output start Proof for theBenchmark
% 12.56/3.48 Assumed formulas after preprocessing and simplification:
% 12.56/3.48 | (0) ? [v0] : ? [v1] : ? [v2] : ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : ? [v12] : ? [v13] : ? [v14] : ? [v15] : ? [v16] : ? [v17] : ? [v18] : ? [v19] : ? [v20] : ? [v21] : ? [v22] : ? [v23] : ? [v24] : ? [v25] : ? [v26] : ? [v27] : ( ~ (v1 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, v1) = xB & sdtlbdtrb0(xs, v1) = xA & aDimensionOf0(xq) = v3 & aDimensionOf0(xp) = v2 & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v1 & smndt0(sz0z00) = v0 & sdtasdt0(v26, v26) = v27 & sdtasdt0(v24, v24) = v25 & sdtasdt0(xS, xS) = v9 & sdtasdt0(xS, xR) = v21 & sdtasdt0(xP, xP) = v6 & sdtasdt0(xR, xS) = xN & sdtasdt0(xR, xR) = v8 & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = v4 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = v5 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & sdtpldt0(v21, v9) = v22 & sdtpldt0(v20, v22) = v23 & sdtpldt0(v16, xN) = v17 & sdtpldt0(v15, v18) = v17 & sdtpldt0(v15, v9) = v16 & sdtpldt0(v13, xN) = v14 & sdtpldt0(v11, v6) = v12 & sdtpldt0(v10, xN) = v13 & sdtpldt0(v9, xN) = v18 & sdtpldt0(v8, v9) = v10 & sdtpldt0(v8, xN) = v20 & sdtpldt0(v8, xN) = v15 & sdtpldt0(v7, v7) = v19 & sdtpldt0(v7, v6) = v11 & sdtpldt0(v6, v6) = v7 & sdtpldt0(xP, xP) = v24 & sdtpldt0(xR, xS) = v26 & szszuzczcdt0(v3) = v1 & szszuzczcdt0(v2) = v1 & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(v19, v23) & sdtlseqdt0(v12, v14) & sdtlseqdt0(v7, v10) & sdtlseqdt0(v6, xN) & sdtlseqdt0(v4, v5) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) & ~ sdtlseqdt0(v25, v27) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ! [v33] : ! [v34] : ! [v35] : ! [v36] : ! [v37] : ! [v38] : ( ~ (sdtasdt0(v29, v31) = v36) | ~ (sdtasdt0(v29, v30) = v35) | ~ (sdtasdt0(v28, v31) = v33) | ~ (sdtasdt0(v28, v30) = v32) | ~ (sdtpldt0(v35, v36) = v37) | ~ (sdtpldt0(v34, v37) = v38) | ~ (sdtpldt0(v32, v33) = v34) | ~ aScalar0(v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v39] : ? [v40] : (sdtasdt0(v39, v40) = v38 & sdtpldt0(v30, v31) = v40 & sdtpldt0(v28, v29) = v39)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ! [v33] : ! [v34] : ! [v35] : ! [v36] : ! [v37] : (v30 = sz00 | ~ (sdtasasdt0(v31, v32) = v33) | ~ (sziznziztdt0(v29) = v32) | ~ (sziznziztdt0(v28) = v31) | ~ (sdtlbdtrb0(v29, v30) = v35) | ~ (sdtlbdtrb0(v28, v30) = v34) | ~ (aDimensionOf0(v29) = v30) | ~ (aDimensionOf0(v28) = v30) | ~ (sdtasdt0(v34, v35) = v36) | ~ (sdtpldt0(v33, v36) = v37) | ~ aVector0(v29) | ~ aVector0(v28) | sdtasasdt0(v28, v29) = v37) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ! [v33] : ! [v34] : ( ~ (sdtasdt0(v32, v33) = v34) | ~ (sdtpldt0(v30, v31) = v33) | ~ (sdtpldt0(v28, v29) = v32) | ~ aScalar0(v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v35] : ? [v36] : ? [v37] : ? [v38] : ? [v39] : ? [v40] : (sdtasdt0(v29, v31) = v39 & sdtasdt0(v29, v30) = v38 & sdtasdt0(v28, v31) = v36 & sdtasdt0(v28, v30) = v35 & sdtpldt0(v38, v39) = v40 & sdtpldt0(v37, v40) = v34 & sdtpldt0(v35, v36) = v37)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtasdt0(v29, v31) = v33) | ~ (sdtasdt0(v28, v30) = v32) | ~ sdtlseqdt0(v30, v31) | ~ sdtlseqdt0(v28, v29) | ~ sdtlseqdt0(sz0z00, v30) | ~ aScalar0(v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | sdtlseqdt0(v32, v33)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtasdt0(v29, v30) = v32) | ~ (sdtasdt0(v28, v30) = v31) | ~ (sdtpldt0(v31, v32) = v33) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v34] : ? [v35] : ? [v36] : ? [v37] : (sdtasdt0(v37, v30) = v33 & sdtasdt0(v28, v34) = v35 & sdtasdt0(v28, v29) = v36 & sdtpldt0(v36, v31) = v35 & sdtpldt0(v29, v30) = v34 & sdtpldt0(v28, v29) = v37)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtasdt0(v28, v30) = v32) | ~ (sdtasdt0(v28, v29) = v31) | ~ (sdtpldt0(v31, v32) = v33) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v34] : ? [v35] : ? [v36] : ? [v37] : (sdtasdt0(v35, v30) = v36 & sdtasdt0(v29, v30) = v37 & sdtasdt0(v28, v34) = v33 & sdtpldt0(v32, v37) = v36 & sdtpldt0(v29, v30) = v34 & sdtpldt0(v28, v29) = v35)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtpldt0(v29, v31) = v33) | ~ (sdtpldt0(v28, v30) = v32) | ~ sdtlseqdt0(v30, v31) | ~ sdtlseqdt0(v28, v29) | ~ aScalar0(v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | sdtlseqdt0(v32, v33)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (sdtasasdt0(v29, v29) = v31) | ~ (sdtasasdt0(v28, v28) = v30) | ~ (sdtasdt0(v30, v31) = v32) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v33] : ? [v34] : ? [v35] : ? [v36] : (sdtasasdt0(v28, v29) = v35 & aDimensionOf0(v29) = v34 & aDimensionOf0(v28) = v33 & sdtasdt0(v35, v35) = v36 & ( ~ (v34 = v33) | ~ iLess0(v33, v1) | sdtlseqdt0(v36, v32)))) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (smndt0(v29) = v31) | ~ (smndt0(v28) = v30) | ~ (sdtasdt0(v30, v31) = v32) | ~ aScalar0(v29) | ~ aScalar0(v28) | sdtasdt0(v28, v29) = v32) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (sdtasdt0(v31, v30) = v32) | ~ (sdtasdt0(v28, v29) = v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v33] : ? [v34] : ? [v35] : ? [v36] : (sdtasdt0(v29, v30) = v36 & sdtasdt0(v29, v28) = v31 & sdtasdt0(v28, v36) = v32 & sdtpldt0(v33, v30) = v34 & sdtpldt0(v29, v30) = v35 & sdtpldt0(v29, v28) = v33 & sdtpldt0(v28, v35) = v34 & sdtpldt0(v28, v29) = v33)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (sdtasdt0(v31, v30) = v32) | ~ (sdtpldt0(v28, v29) = v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v33] : ? [v34] : ? [v35] : ? [v36] : ? [v37] : (sdtasdt0(v29, v30) = v37 & sdtasdt0(v28, v33) = v34 & sdtasdt0(v28, v30) = v36 & sdtasdt0(v28, v29) = v35 & sdtpldt0(v36, v37) = v32 & sdtpldt0(v35, v36) = v34 & sdtpldt0(v29, v30) = v33)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (sdtasdt0(v29, v30) = v31) | ~ (sdtasdt0(v28, v31) = v32) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v33] : ? [v34] : ? [v35] : ? [v36] : (sdtasdt0(v36, v30) = v32 & sdtasdt0(v29, v28) = v36 & sdtasdt0(v28, v29) = v36 & sdtpldt0(v33, v30) = v34 & sdtpldt0(v29, v30) = v35 & sdtpldt0(v29, v28) = v33 & sdtpldt0(v28, v35) = v34 & sdtpldt0(v28, v29) = v33)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (sdtasdt0(v28, v31) = v32) | ~ (sdtpldt0(v29, v30) = v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v33] : ? [v34] : ? [v35] : ? [v36] : ? [v37] : (sdtasdt0(v35, v30) = v36 & sdtasdt0(v29, v30) = v37 & sdtasdt0(v28, v30) = v34 & sdtasdt0(v28, v29) = v33 & sdtpldt0(v34, v37) = v36 & sdtpldt0(v33, v34) = v32 & sdtpldt0(v28, v29) = v35)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (sdtpldt0(v31, v30) = v32) | ~ (sdtpldt0(v28, v29) = v31) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v33] : ? [v34] : ? [v35] : ? [v36] : (sdtasdt0(v34, v30) = v35 & sdtasdt0(v29, v30) = v36 & sdtasdt0(v29, v28) = v34 & sdtasdt0(v28, v36) = v35 & sdtasdt0(v28, v29) = v34 & sdtpldt0(v29, v30) = v33 & sdtpldt0(v29, v28) = v31 & sdtpldt0(v28, v33) = v32)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ! [v32] : ( ~ (sdtpldt0(v29, v30) = v31) | ~ (sdtpldt0(v28, v31) = v32) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v33] : ? [v34] : ? [v35] : ? [v36] : (sdtasdt0(v34, v30) = v35 & sdtasdt0(v29, v30) = v36 & sdtasdt0(v29, v28) = v34 & sdtasdt0(v28, v36) = v35 & sdtasdt0(v28, v29) = v34 & sdtpldt0(v33, v30) = v32 & sdtpldt0(v29, v28) = v33 & sdtpldt0(v28, v29) = v33)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : (v30 = sz00 | ~ (sziznziztdt0(v28) = v31) | ~ (aDimensionOf0(v29) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v32] : ? [v33] : ? [v34] : ? [v35] : (sziznziztdt0(v29) = v34 & aDimensionOf0(v34) = v35 & aDimensionOf0(v31) = v33 & aDimensionOf0(v28) = v32 & ( ~ (v32 = v30) | v35 = v33))) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : (v29 = v28 | ~ (sdtasasdt0(v31, v30) = v29) | ~ (sdtasasdt0(v31, v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : (v29 = v28 | ~ (sdtlbdtrb0(v31, v30) = v29) | ~ (sdtlbdtrb0(v31, v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : (v29 = v28 | ~ (sdtasdt0(v31, v30) = v29) | ~ (sdtasdt0(v31, v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : (v29 = v28 | ~ (sdtpldt0(v31, v30) = v29) | ~ (sdtpldt0(v31, v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ( ~ (sdtasasdt0(v28, v29) = v30) | ~ (sdtasdt0(v30, v30) = v31) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v32] : ? [v33] : ? [v34] : ? [v35] : ? [v36] : (sdtasasdt0(v29, v29) = v35 & sdtasasdt0(v28, v28) = v34 & aDimensionOf0(v29) = v33 & aDimensionOf0(v28) = v32 & sdtasdt0(v34, v35) = v36 & ( ~ (v33 = v32) | ~ iLess0(v32, v1) | sdtlseqdt0(v31, v36)))) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ( ~ (sziznziztdt0(v29) = v31) | ~ (sziznziztdt0(v28) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v32] : ? [v33] : ? [v34] : ? [v35] : (aDimensionOf0(v31) = v35 & aDimensionOf0(v30) = v34 & aDimensionOf0(v29) = v33 & aDimensionOf0(v28) = v32 & ( ~ (v33 = v32) | v35 = v34 | v32 = sz00))) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ( ~ (sziznziztdt0(v29) = v31) | ~ (aDimensionOf0(v28) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v32] : ? [v33] : ? [v34] : ? [v35] : (sziznziztdt0(v28) = v33 & aDimensionOf0(v33) = v34 & aDimensionOf0(v31) = v35 & aDimensionOf0(v29) = v32 & ( ~ (v32 = v30) | v35 = v34 | v30 = sz00))) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ( ~ (smndt0(v29) = v30) | ~ (sdtasdt0(v28, v30) = v31) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v32] : ? [v33] : (smndt0(v32) = v31 & smndt0(v28) = v33 & sdtasdt0(v33, v29) = v31 & sdtasdt0(v28, v29) = v32)) & ! [v28] : ! [v29] : ! [v30] : ! [v31] : ( ~ (smndt0(v28) = v30) | ~ (sdtasdt0(v30, v29) = v31) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v32] : ? [v33] : (smndt0(v33) = v31 & smndt0(v29) = v32 & sdtasdt0(v28, v32) = v31 & sdtasdt0(v28, v29) = v33)) & ! [v28] : ! [v29] : ! [v30] : (v30 = sz0z00 | ~ (sdtasasdt0(v28, v29) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v31] : ? [v32] : (aDimensionOf0(v29) = v32 & aDimensionOf0(v28) = v31 & ( ~ (v32 = sz00) | ~ (v31 = sz00)))) & ! [v28] : ! [v29] : ! [v30] : (v30 = sz0z00 | ~ (smndt0(v28) = v29) | ~ (sdtpldt0(v29, v28) = v30) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : ! [v30] : (v30 = sz0z00 | ~ (smndt0(v28) = v29) | ~ (sdtpldt0(v28, v29) = v30) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : ! [v30] : (v30 = sz00 | ~ (aDimensionOf0(v29) = v30) | ~ (aDimensionOf0(v28) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v31] : ? [v32] : ? [v33] : ? [v34] : ? [v35] : ? [v36] : ? [v37] : (sdtasasdt0(v32, v33) = v34 & sdtasasdt0(v28, v29) = v31 & sziznziztdt0(v29) = v33 & sziznziztdt0(v28) = v32 & sdtlbdtrb0(v29, v30) = v36 & sdtlbdtrb0(v28, v30) = v35 & sdtasdt0(v35, v36) = v37 & sdtpldt0(v34, v37) = v31)) & ! [v28] : ! [v29] : ! [v30] : (v30 = sz00 | ~ (aDimensionOf0(v29) = v30) | ~ (aDimensionOf0(v28) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v31] : ? [v32] : ? [v33] : (sziznziztdt0(v29) = v33 & sziznziztdt0(v28) = v31 & aDimensionOf0(v33) = v32 & aDimensionOf0(v31) = v32)) & ! [v28] : ! [v29] : ! [v30] : (v29 = v28 | ~ (sziznziztdt0(v30) = v29) | ~ (sziznziztdt0(v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : (v29 = v28 | ~ (aDimensionOf0(v30) = v29) | ~ (aDimensionOf0(v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : (v29 = v28 | ~ (smndt0(v30) = v29) | ~ (smndt0(v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : (v29 = v28 | ~ (sdtasdt0(v29, v29) = v30) | ~ (sdtasdt0(v28, v28) = v30) | ~ sdtlseqdt0(sz0z00, v29) | ~ sdtlseqdt0(sz0z00, v28) | ~ aScalar0(v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : ! [v30] : (v29 = v28 | ~ (szszuzczcdt0(v30) = v29) | ~ (szszuzczcdt0(v30) = v28)) & ! [v28] : ! [v29] : ! [v30] : (v29 = v28 | ~ (szszuzczcdt0(v29) = v30) | ~ (szszuzczcdt0(v28) = v30) | ~ aNaturalNumber0(v29) | ~ aNaturalNumber0(v28)) & ! [v28] : ! [v29] : ! [v30] : (v0 = sz0z00 | ~ (smndt0(v28) = v29) | ~ (sdtpldt0(v29, v28) = v30) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : ! [v30] : (v0 = sz0z00 | ~ (smndt0(v28) = v29) | ~ (sdtpldt0(v28, v29) = v30) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtasasdt0(v28, v29) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | aScalar0(v30) | ? [v31] : ? [v32] : ( ~ (v32 = v31) & aDimensionOf0(v29) = v32 & aDimensionOf0(v28) = v31)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtasasdt0(v28, v29) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v31] : ? [v32] : ? [v33] : ? [v34] : ? [v35] : ? [v36] : ? [v37] : ? [v38] : ? [v39] : (sdtasasdt0(v33, v34) = v35 & sziznziztdt0(v29) = v34 & sziznziztdt0(v28) = v33 & sdtlbdtrb0(v29, v32) = v37 & sdtlbdtrb0(v28, v31) = v36 & aDimensionOf0(v29) = v32 & aDimensionOf0(v28) = v31 & sdtasdt0(v36, v37) = v38 & sdtpldt0(v35, v38) = v39 & ( ~ (v32 = v31) | v39 = v30 | v31 = sz00))) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtlbdtrb0(v28, v29) = v30) | ~ aVector0(v28) | ~ aNaturalNumber0(v29) | aScalar0(v30)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (aDimensionOf0(v29) = v30) | ~ (aDimensionOf0(v28) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ~ iLess0(v30, v1) | ? [v31] : ? [v32] : ? [v33] : ? [v34] : ? [v35] : (sdtasasdt0(v29, v29) = v34 & sdtasasdt0(v28, v29) = v31 & sdtasasdt0(v28, v28) = v33 & sdtasdt0(v33, v34) = v35 & sdtasdt0(v31, v31) = v32 & sdtlseqdt0(v32, v35))) & ! [v28] : ! [v29] : ! [v30] : ( ~ (aDimensionOf0(v29) = v30) | ~ (aDimensionOf0(v28) = v30) | ~ aVector0(v29) | ~ aVector0(v28) | ? [v31] : (sdtasasdt0(v28, v29) = v31 & aScalar0(v31))) & ! [v28] : ! [v29] : ! [v30] : ( ~ (smndt0(v28) = v29) | ~ (sdtpldt0(v29, v28) = v30) | ~ aScalar0(v28) | (smndt0(v29) = v28 & sdtasdt0(v28, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v28) = sz0z00 & sdtpldt0(v28, v29) = sz0z00 & sdtpldt0(v28, sz0z00) = v28 & sdtpldt0(sz0z00, v28) = v28)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (smndt0(v28) = v29) | ~ (sdtpldt0(v28, v29) = v30) | ~ aScalar0(v28) | (smndt0(v29) = v28 & sdtasdt0(v28, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v28) = sz0z00 & sdtpldt0(v29, v28) = sz0z00 & sdtpldt0(v28, sz0z00) = v28 & sdtpldt0(sz0z00, v28) = v28)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtasdt0(v28, v29) = v30) | ~ sdtlseqdt0(sz0z00, v29) | ~ sdtlseqdt0(sz0z00, v28) | ~ aScalar0(v29) | ~ aScalar0(v28) | sdtlseqdt0(sz0z00, v30)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtasdt0(v28, v29) = v30) | ~ sdtlseqdt0(sz0z00, v29) | ~ sdtlseqdt0(sz0z00, v28) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v31] : (sdtpldt0(v28, v29) = v31 & sdtlseqdt0(sz0z00, v31))) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtasdt0(v28, v29) = v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | aScalar0(v30)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtasdt0(v28, v29) = v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v31] : ? [v32] : ? [v33] : (smndt0(v30) = v32 & smndt0(v29) = v31 & smndt0(v28) = v33 & sdtasdt0(v33, v29) = v32 & sdtasdt0(v28, v31) = v32)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtasdt0(v28, v29) = v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v31] : ? [v32] : (smndt0(v29) = v32 & smndt0(v28) = v31 & sdtasdt0(v31, v32) = v30)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtpldt0(v28, v29) = v30) | ~ sdtlseqdt0(sz0z00, v29) | ~ sdtlseqdt0(sz0z00, v28) | ~ aScalar0(v29) | ~ aScalar0(v28) | sdtlseqdt0(sz0z00, v30)) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtpldt0(v28, v29) = v30) | ~ sdtlseqdt0(sz0z00, v29) | ~ sdtlseqdt0(sz0z00, v28) | ~ aScalar0(v29) | ~ aScalar0(v28) | ? [v31] : (sdtasdt0(v28, v29) = v31 & sdtlseqdt0(sz0z00, v31))) & ! [v28] : ! [v29] : ! [v30] : ( ~ (sdtpldt0(v28, v29) = v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | aScalar0(v30)) & ! [v28] : ! [v29] : ! [v30] : ( ~ sdtlseqdt0(v29, v30) | ~ sdtlseqdt0(v28, v29) | ~ aScalar0(v30) | ~ aScalar0(v29) | ~ aScalar0(v28) | sdtlseqdt0(v28, v30)) & ! [v28] : ! [v29] : (v29 = v28 | ~ (sdtpldt0(v28, sz0z00) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v29 = v28 | ~ (sdtpldt0(sz0z00, v28) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v29 = v28 | ~ sdtlseqdt0(v29, v28) | ~ sdtlseqdt0(v28, v29) | ~ aScalar0(v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v29 = sz0z00 | ~ (sdtasdt0(v28, sz0z00) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v29 = sz0z00 | ~ (sdtasdt0(sz0z00, v28) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v29 = sz00 | ~ (aDimensionOf0(v28) = v29) | ~ aVector0(v28) | ? [v30] : (sziznziztdt0(v28) = v30 & ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtlbdtrb0(v30, v32) = v33) | ~ (aDimensionOf0(v30) = v31) | ~ aNaturalNumber0(v32) | sdtlbdtrb0(v28, v32) = v33) & ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtlbdtrb0(v28, v32) = v33) | ~ (aDimensionOf0(v30) = v31) | ~ aNaturalNumber0(v32) | sdtlbdtrb0(v30, v32) = v33) & ! [v31] : ! [v32] : (v31 = v30 | ~ (aDimensionOf0(v31) = v32) | ~ aVector0(v31) | ? [v33] : ? [v34] : ? [v35] : (( ~ (v35 = v34) & sdtlbdtrb0(v31, v33) = v34 & sdtlbdtrb0(v28, v33) = v35 & aNaturalNumber0(v33)) | ( ~ (v33 = v29) & szszuzczcdt0(v32) = v33))) & ! [v31] : ( ~ (aDimensionOf0(v30) = v31) | szszuzczcdt0(v31) = v29) & ! [v31] : ( ~ (aDimensionOf0(v30) = v31) | aVector0(v30)))) & ! [v28] : ! [v29] : (v0 = sz0z00 | ~ (smndt0(v28) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v0 = sz0z00 | ~ (sdtasdt0(v28, sz0z00) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v0 = sz0z00 | ~ (sdtasdt0(sz0z00, v28) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v0 = sz0z00 | ~ (sdtpldt0(v28, sz0z00) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : (v0 = sz0z00 | ~ (sdtpldt0(sz0z00, v28) = v29) | ~ aScalar0(v28)) & ! [v28] : ! [v29] : ( ~ (sdtasasdt0(v28, v28) = v29) | ~ aVector0(v28) | sdtlseqdt0(sz0z00, v29)) & ! [v28] : ! [v29] : ( ~ (sziznziztdt0(v28) = v29) | ~ aVector0(v28) | ? [v30] : (aDimensionOf0(v28) = v30 & (v30 = sz00 | ( ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtlbdtrb0(v29, v32) = v33) | ~ (aDimensionOf0(v29) = v31) | ~ aNaturalNumber0(v32) | sdtlbdtrb0(v28, v32) = v33) & ! [v31] : ! [v32] : ! [v33] : ( ~ (sdtlbdtrb0(v28, v32) = v33) | ~ (aDimensionOf0(v29) = v31) | ~ aNaturalNumber0(v32) | sdtlbdtrb0(v29, v32) = v33) & ! [v31] : ! [v32] : (v31 = v29 | ~ (aDimensionOf0(v31) = v32) | ~ aVector0(v31) | ? [v33] : ? [v34] : ? [v35] : (( ~ (v35 = v34) & sdtlbdtrb0(v31, v33) = v34 & sdtlbdtrb0(v28, v33) = v35 & aNaturalNumber0(v33)) | ( ~ (v33 = v30) & szszuzczcdt0(v32) = v33))) & ! [v31] : ( ~ (aDimensionOf0(v29) = v31) | szszuzczcdt0(v31) = v30) & ! [v31] : ( ~ (aDimensionOf0(v29) = v31) | aVector0(v29)))))) & ! [v28] : ! [v29] : ( ~ (sdtlbdtrb0(xq, v28) = v29) | ~ aNaturalNumber0(v28) | sdtlbdtrb0(xt, v28) = v29) & ! [v28] : ! [v29] : ( ~ (sdtlbdtrb0(xp, v28) = v29) | ~ aNaturalNumber0(v28) | sdtlbdtrb0(xs, v28) = v29) & ! [v28] : ! [v29] : ( ~ (sdtlbdtrb0(xt, v28) = v29) | ~ aNaturalNumber0(v28) | sdtlbdtrb0(xq, v28) = v29) & ! [v28] : ! [v29] : ( ~ (sdtlbdtrb0(xs, v28) = v29) | ~ aNaturalNumber0(v28) | sdtlbdtrb0(xp, v28) = v29) & ! [v28] : ! [v29] : ( ~ (aDimensionOf0(v29) = sz00) | ~ (aDimensionOf0(v28) = sz00) | ~ aVector0(v29) | ~ aVector0(v28) | sdtasasdt0(v28, v29) = sz0z00) & ! [v28] : ! [v29] : ( ~ (aDimensionOf0(v28) = v29) | ~ aVector0(v28) | aNaturalNumber0(v29)) & ! [v28] : ! [v29] : ( ~ (smndt0(v28) = v29) | ~ aScalar0(v28) | aScalar0(v29)) & ! [v28] : ! [v29] : ( ~ (smndt0(v28) = v29) | ~ aScalar0(v28) | (smndt0(v29) = v28 & sdtasdt0(v28, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v28) = sz0z00 & sdtpldt0(v29, v28) = sz0z00 & sdtpldt0(v28, v29) = sz0z00 & sdtpldt0(v28, sz0z00) = v28 & sdtpldt0(sz0z00, v28) = v28)) & ! [v28] : ! [v29] : ( ~ (sdtasdt0(v28, v28) = v29) | ~ aScalar0(v28) | sdtlseqdt0(sz0z00, v29)) & ! [v28] : ! [v29] : ( ~ (sdtasdt0(v28, sz0z00) = v29) | ~ aScalar0(v28) | ? [v30] : (smndt0(v30) = v28 & smndt0(v28) = v30 & sdtasdt0(sz0z00, v28) = sz0z00 & sdtpldt0(v30, v28) = sz0z00 & sdtpldt0(v28, v30) = sz0z00 & sdtpldt0(v28, sz0z00) = v28 & sdtpldt0(sz0z00, v28) = v28)) & ! [v28] : ! [v29] : ( ~ (sdtasdt0(sz0z00, v28) = v29) | ~ aScalar0(v28) | ? [v30] : (smndt0(v30) = v28 & smndt0(v28) = v30 & sdtasdt0(v28, sz0z00) = sz0z00 & sdtpldt0(v30, v28) = sz0z00 & sdtpldt0(v28, v30) = sz0z00 & sdtpldt0(v28, sz0z00) = v28 & sdtpldt0(sz0z00, v28) = v28)) & ! [v28] : ! [v29] : ( ~ (sdtpldt0(v28, sz0z00) = v29) | ~ aScalar0(v28) | ? [v30] : (smndt0(v30) = v28 & smndt0(v28) = v30 & sdtasdt0(v28, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v28) = sz0z00 & sdtpldt0(v30, v28) = sz0z00 & sdtpldt0(v28, v30) = sz0z00 & sdtpldt0(sz0z00, v28) = v28)) & ! [v28] : ! [v29] : ( ~ (sdtpldt0(sz0z00, v28) = v29) | ~ aScalar0(v28) | ? [v30] : (smndt0(v30) = v28 & smndt0(v28) = v30 & sdtasdt0(v28, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v28) = sz0z00 & sdtpldt0(v30, v28) = sz0z00 & sdtpldt0(v28, v30) = sz0z00 & sdtpldt0(v28, sz0z00) = v28)) & ! [v28] : ! [v29] : ( ~ (szszuzczcdt0(v28) = v29) | ~ aNaturalNumber0(v28) | iLess0(v28, v29)) & ! [v28] : ! [v29] : ( ~ (szszuzczcdt0(v28) = v29) | ~ aNaturalNumber0(v28) | aNaturalNumber0(v29)) & ! [v28] : ! [v29] : ( ~ aScalar0(v29) | ~ aScalar0(v28) | sdtlseqdt0(v29, v28) | sdtlseqdt0(v28, v29)) & ! [v28] : (v28 = sz00 | ~ aNaturalNumber0(v28) | ? [v29] : (szszuzczcdt0(v29) = v28 & aNaturalNumber0(v29))) & ! [v28] : ( ~ (szszuzczcdt0(v28) = sz00) | ~ aNaturalNumber0(v28)) & ! [v28] : ( ~ aScalar0(v28) | sdtlseqdt0(v28, v28)))
% 12.92/3.57 | Instantiating (0) with all_0_0_0, all_0_1_1, all_0_2_2, all_0_3_3, all_0_4_4, all_0_5_5, all_0_6_6, all_0_7_7, all_0_8_8, all_0_9_9, all_0_10_10, all_0_11_11, all_0_12_12, all_0_13_13, all_0_14_14, all_0_15_15, all_0_16_16, all_0_17_17, all_0_18_18, all_0_19_19, all_0_20_20, all_0_21_21, all_0_22_22, all_0_23_23, all_0_24_24, all_0_25_25, all_0_26_26, all_0_27_27 yields:
% 12.92/3.57 | (1) ~ (all_0_26_26 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, all_0_26_26) = xB & sdtlbdtrb0(xs, all_0_26_26) = xA & aDimensionOf0(xq) = all_0_24_24 & aDimensionOf0(xp) = all_0_25_25 & aDimensionOf0(xt) = all_0_26_26 & aDimensionOf0(xs) = all_0_26_26 & smndt0(sz0z00) = all_0_27_27 & sdtasdt0(all_0_1_1, all_0_1_1) = all_0_0_0 & sdtasdt0(all_0_3_3, all_0_3_3) = all_0_2_2 & sdtasdt0(xS, xS) = all_0_18_18 & sdtasdt0(xS, xR) = all_0_6_6 & sdtasdt0(xP, xP) = all_0_21_21 & sdtasdt0(xR, xS) = xN & sdtasdt0(xR, xR) = all_0_19_19 & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = all_0_23_23 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = all_0_22_22 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & sdtpldt0(all_0_6_6, all_0_18_18) = all_0_5_5 & sdtpldt0(all_0_7_7, all_0_5_5) = all_0_4_4 & sdtpldt0(all_0_11_11, xN) = all_0_10_10 & sdtpldt0(all_0_12_12, all_0_9_9) = all_0_10_10 & sdtpldt0(all_0_12_12, all_0_18_18) = all_0_11_11 & sdtpldt0(all_0_14_14, xN) = all_0_13_13 & sdtpldt0(all_0_16_16, all_0_21_21) = all_0_15_15 & sdtpldt0(all_0_17_17, xN) = all_0_14_14 & sdtpldt0(all_0_18_18, xN) = all_0_9_9 & sdtpldt0(all_0_19_19, all_0_18_18) = all_0_17_17 & sdtpldt0(all_0_19_19, xN) = all_0_7_7 & sdtpldt0(all_0_19_19, xN) = all_0_12_12 & sdtpldt0(all_0_20_20, all_0_20_20) = all_0_8_8 & sdtpldt0(all_0_20_20, all_0_21_21) = all_0_16_16 & sdtpldt0(all_0_21_21, all_0_21_21) = all_0_20_20 & sdtpldt0(xP, xP) = all_0_3_3 & sdtpldt0(xR, xS) = all_0_1_1 & szszuzczcdt0(all_0_24_24) = all_0_26_26 & szszuzczcdt0(all_0_25_25) = all_0_26_26 & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(all_0_8_8, all_0_4_4) & sdtlseqdt0(all_0_15_15, all_0_13_13) & sdtlseqdt0(all_0_20_20, all_0_17_17) & sdtlseqdt0(all_0_21_21, xN) & sdtlseqdt0(all_0_23_23, all_0_22_22) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) & ~ sdtlseqdt0(all_0_2_2, all_0_0_0) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) | ~ (sdtasdt0(v1, v2) = v7) | ~ (sdtasdt0(v0, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtpldt0(v7, v8) = v9) | ~ (sdtpldt0(v6, v9) = v10) | ~ (sdtpldt0(v4, v5) = v6) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v11] : ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : (v2 = sz00 | ~ (sdtasasdt0(v3, v4) = v5) | ~ (sziznziztdt0(v1) = v4) | ~ (sziznziztdt0(v0) = v3) | ~ (sdtlbdtrb0(v1, v2) = v7) | ~ (sdtlbdtrb0(v0, v2) = v6) | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ (sdtasdt0(v6, v7) = v8) | ~ (sdtpldt0(v5, v8) = v9) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) | ~ (sdtpldt0(v2, v3) = v5) | ~ (sdtpldt0(v0, v1) = v4) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ sdtlseqdt0(sz0z00, v2) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) | ~ (sdtasdt0(v0, v2) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) | ~ (sdtpldt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) | ~ (sdtasasdt0(v0, v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) | ~ iLess0(v5, all_0_26_26) | sdtlseqdt0(v8, v4)))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (smndt0(v1) = v3) | ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) | ~ (sdtasdt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) | ~ (sdtpldt0(v1, v2) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) | ~ (sdtpldt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v2 = sz00 | ~ (sziznziztdt0(v0) = v3) | ~ (aDimensionOf0(v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasasdt0(v3, v2) = v1) | ~ (sdtasasdt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtlbdtrb0(v3, v2) = v1) | ~ (sdtlbdtrb0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasdt0(v3, v2) = v1) | ~ (sdtasdt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtpldt0(v3, v2) = v1) | ~ (sdtpldt0(v3, v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ (sdtasdt0(v2, v2) = v3) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) | ~ iLess0(v4, all_0_26_26) | sdtlseqdt0(v3, v8)))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (sziznziztdt0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v1) = v2) | ~ (sdtasdt0(v0, v2) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4)) & ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v1) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) | ~ (v3 = sz00)))) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3)) & ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sziznziztdt0(v2) = v1) | ~ (sziznziztdt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (aDimensionOf0(v2) = v1) | ~ (aDimensionOf0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (smndt0(v2) = v1) | ~ (smndt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sdtasdt0(v1, v1) = v2) | ~ (sdtasdt0(v0, v0) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v2) = v1) | ~ (szszuzczcdt0(v2) = v0)) & ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v1) = v2) | ~ (szszuzczcdt0(v0) = v2) | ~ aNaturalNumber0(v1) | ~ aNaturalNumber0(v0)) & ! [v0] : ! [v1] : ! [v2] : (all_0_27_27 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : (all_0_27_27 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | aScalar0(v2) | ? [v3] : ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) | ~ aVector0(v0) | ~ aNaturalNumber0(v1) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ~ iLess0(v2, all_0_26_26) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) & ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2)) & ! [v0] : ! [v1] : ! [v2] : ( ~ sdtlseqdt0(v1, v2) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v0, v2)) & ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = v0 | ~ sdtlseqdt0(v1, v0) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (v1 = sz00 | ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (sziznziztdt0(v0) = v2 & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) & ! [v3] : ! [v4] : (v3 = v2 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2)))) & ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (smndt0(v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0)) & ! [v0] : ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) | ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1)) & ! [v0] : ! [v1] : ( ~ (sziznziztdt0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) & ! [v3] : ! [v4] : (v3 = v1 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1)))))) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xq, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xt, v0) = v1) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xp, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xs, v0) = v1) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xt, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xq, v0) = v1) & ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xs, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xp, v0) = v1) & ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) | ~ (aDimensionOf0(v0) = sz00) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00) & ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | aNaturalNumber0(v1)) & ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | aScalar0(v1)) & ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0)) & ! [v0] : ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0)) & ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | iLess0(v0, v1)) & ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | aNaturalNumber0(v1)) & ! [v0] : ! [v1] : ( ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1)) & ! [v0] : (v0 = sz00 | ~ aNaturalNumber0(v0) | ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1))) & ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) | ~ aNaturalNumber0(v0)) & ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 12.92/3.59 |
% 12.92/3.59 | Applying alpha-rule on (1) yields:
% 12.92/3.59 | (2) ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 12.92/3.59 | (3) sdtasdt0(xE, xH) = xP
% 12.92/3.59 | (4) sdtpldt0(all_0_20_20, all_0_21_21) = all_0_16_16
% 12.92/3.59 | (5) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2))
% 12.92/3.59 | (6) sdtpldt0(all_0_20_20, all_0_20_20) = all_0_8_8
% 12.92/3.59 | (7) sdtpldt0(all_0_16_16, all_0_21_21) = all_0_15_15
% 12.92/3.59 | (8) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) | ~ (sdtasdt0(v0, v2) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9))
% 13.34/3.59 | (9) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 13.34/3.59 | (10) sdtasdt0(xC, xD) = all_0_22_22
% 13.34/3.59 | (11) ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) | ~ (aDimensionOf0(v0) = sz00) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00)
% 13.34/3.59 | (12) ~ (all_0_26_26 = sz00)
% 13.34/3.59 | (13) ! [v0] : (v0 = sz00 | ~ aNaturalNumber0(v0) | ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1)))
% 13.34/3.60 | (14) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) | ~ (v3 = sz00))))
% 13.34/3.60 | (15) aScalar0(xF)
% 13.34/3.60 | (16) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasdt0(v3, v2) = v1) | ~ (sdtasdt0(v3, v2) = v0))
% 13.34/3.60 | (17) sdtasdt0(xA, xB) = xH
% 13.34/3.60 | (18) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | aScalar0(v2) | ? [v3] : ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3))
% 13.34/3.60 | (19) aScalar0(xN)
% 13.34/3.60 | (20) sdtasdt0(xF, xD) = xS
% 13.34/3.60 | (21) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 13.34/3.60 | (22) sdtpldt0(all_0_6_6, all_0_18_18) = all_0_5_5
% 13.34/3.60 | (23) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00)))
% 13.34/3.60 | (24) ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | iLess0(v0, v1))
% 13.34/3.60 | (25) sdtpldt0(all_0_7_7, all_0_5_5) = all_0_4_4
% 13.34/3.60 | (26) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sziznziztdt0(v1) = v3) | ~ (sziznziztdt0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00)))
% 13.34/3.60 | (27) ! [v0] : ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) | ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1))
% 13.34/3.60 | (28) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xq, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xt, v0) = v1)
% 13.34/3.60 | (29) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) | ~ (sdtasasdt0(v0, v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) | ~ iLess0(v5, all_0_26_26) | sdtlseqdt0(v8, v4))))
% 13.34/3.60 | (30) sdtpldt0(xP, xP) = all_0_3_3
% 13.34/3.60 | (31) ! [v0] : ! [v1] : ( ~ (sziznziztdt0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v1) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) & ! [v3] : ! [v4] : (v3 = v1 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) & ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1))))))
% 13.34/3.60 | (32) aScalar0(xB)
% 13.34/3.60 | (33) szszuzczcdt0(all_0_24_24) = all_0_26_26
% 13.34/3.60 | (34) sdtlseqdt0(all_0_15_15, all_0_13_13)
% 13.34/3.60 | (35) sdtasdt0(xR, xR) = all_0_19_19
% 13.34/3.60 | (36) ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 13.34/3.60 | (37) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) | ~ (sdtasdt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 13.34/3.60 | (38) aDimensionOf0(xt) = all_0_26_26
% 13.34/3.60 | (39) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4))
% 13.34/3.60 | (40) aScalar0(xS)
% 13.34/3.60 | (41) ! [v0] : ! [v1] : ! [v2] : ( ~ sdtlseqdt0(v1, v2) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v0, v2))
% 13.34/3.60 | (42) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | aScalar0(v2))
% 13.34/3.60 | (43) ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 13.34/3.60 | (44) ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3)))
% 13.34/3.60 | (45) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : (v2 = sz00 | ~ (sdtasasdt0(v3, v4) = v5) | ~ (sziznziztdt0(v1) = v4) | ~ (sziznziztdt0(v0) = v3) | ~ (sdtlbdtrb0(v1, v2) = v7) | ~ (sdtlbdtrb0(v0, v2) = v6) | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ (sdtasdt0(v6, v7) = v8) | ~ (sdtpldt0(v5, v8) = v9) | ~ aVector0(v1) | ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9)
% 13.34/3.60 | (46) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtpldt0(v3, v2) = v1) | ~ (sdtpldt0(v3, v2) = v0))
% 13.34/3.60 | (47) ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4))
% 13.34/3.60 | (48) aScalar0(xP)
% 13.34/3.60 | (49) ! [v0] : ! [v1] : ( ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | aNaturalNumber0(v1))
% 13.34/3.60 | (50) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2))
% 13.34/3.60 | (51) aNaturalNumber0(sz00)
% 13.34/3.60 | (52) ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1))
% 13.34/3.60 | (53) sdtlseqdt0(all_0_23_23, all_0_22_22)
% 13.34/3.60 | (54) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xt, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xq, v0) = v1)
% 13.34/3.60 | (55) ! [v0] : ! [v1] : (v1 = v0 | ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 13.34/3.60 | (56) ! [v0] : ! [v1] : ! [v2] : ( ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ~ iLess0(v2, all_0_26_26) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7)))
% 13.34/3.60 | (57) sdtpldt0(all_0_12_12, all_0_18_18) = all_0_11_11
% 13.34/3.60 | (58) aScalar0(sz0z00)
% 13.34/3.60 | (59) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sdtasdt0(v1, v1) = v2) | ~ (sdtasdt0(v0, v0) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0))
% 13.34/3.61 | (60) aVector0(xs)
% 13.34/3.61 | (61) sdtpldt0(all_0_18_18, xN) = all_0_9_9
% 13.34/3.61 | (62) ! [v0] : ! [v1] : ! [v2] : (v2 = sz00 | ~ (aDimensionOf0(v1) = v2) | ~ (aDimensionOf0(v0) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3))
% 13.34/3.61 | (63) aScalar0(xR)
% 13.34/3.61 | (64) sdtlseqdt0(all_0_20_20, all_0_17_17)
% 13.34/3.61 | (65) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0))
% 13.34/3.61 | (66) sdtasdt0(xS, xR) = all_0_6_6
% 13.34/3.61 | (67) ! [v0] : ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 13.34/3.61 | (68) ! [v0] : ! [v1] : ! [v2] : (all_0_27_27 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0))
% 13.34/3.61 | (69) aVector0(xq)
% 13.34/3.61 | (70) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v1) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5))
% 13.34/3.61 | (71) ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | aScalar0(v1))
% 13.34/3.61 | (72) ! [v0] : ! [v1] : (v1 = sz00 | ~ (aDimensionOf0(v0) = v1) | ~ aVector0(v0) | ? [v2] : (sziznziztdt0(v0) = v2 & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) & ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) | ~ (aDimensionOf0(v2) = v3) | ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) & ! [v3] : ! [v4] : (v3 = v2 | ~ (aDimensionOf0(v3) = v4) | ~ aVector0(v3) | ? [v5] : ? [v6] : ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) & ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2))))
% 13.34/3.61 | (73) sdtasdt0(xB, xB) = xG
% 13.34/3.61 | (74) aScalar0(xA)
% 13.34/3.61 | (75) ! [v0] : ! [v1] : ( ~ (smndt0(v0) = v1) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 13.34/3.61 | (76) ! [v0] : ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 13.34/3.61 | (77) sdtpldt0(all_0_11_11, xN) = all_0_10_10
% 13.34/3.61 | (78) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtasasdt0(v3, v2) = v1) | ~ (sdtasasdt0(v3, v2) = v0))
% 13.34/3.61 | (79) ! [v0] : ! [v1] : (v1 = v0 | ~ sdtlseqdt0(v1, v0) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v1) | ~ aScalar0(v0))
% 13.34/3.61 | (80) aScalar0(xG)
% 13.34/3.61 | (81) aVector0(xp)
% 13.34/3.61 | (82) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 13.34/3.61 | (83) ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v1, v0) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 13.34/3.61 | (84) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) | ~ (sdtpldt0(v2, v3) = v5) | ~ (sdtpldt0(v0, v1) = v4) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9))
% 13.34/3.61 | (85) ! [v0] : ! [v1] : ( ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1))
% 13.34/3.61 | (86) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) | ~ (sdtpldt0(v0, v3) = v4) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5))
% 13.34/3.61 | (87) ~ sdtlseqdt0(all_0_2_2, all_0_0_0)
% 13.34/3.61 | (88) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (smndt0(v1) = v3) | ~ (smndt0(v0) = v2) | ~ (sdtasdt0(v2, v3) = v4) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4)
% 13.34/3.61 | (89) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v1) = v2) | ~ (szszuzczcdt0(v0) = v2) | ~ aNaturalNumber0(v1) | ~ aNaturalNumber0(v0))
% 13.34/3.61 | (90) sdtasdt0(xE, xE) = all_0_23_23
% 13.34/3.61 | (91) sdtasdt0(xR, xS) = xN
% 13.34/3.61 | (92) sdtlseqdt0(all_0_8_8, all_0_4_4)
% 13.34/3.61 | (93) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (aDimensionOf0(v2) = v1) | ~ (aDimensionOf0(v2) = v0))
% 13.34/3.61 | (94) sdtasdt0(all_0_1_1, all_0_1_1) = all_0_0_0
% 13.34/3.61 | (95) sdtpldt0(all_0_12_12, all_0_9_9) = all_0_10_10
% 13.34/3.61 | (96) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xp, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xs, v0) = v1)
% 13.34/3.61 | (97) sdtasasdt0(xq, xq) = xD
% 13.34/3.61 | (98) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4))
% 13.34/3.61 | (99) aDimensionOf0(xp) = all_0_25_25
% 13.34/3.61 | (100) ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 13.34/3.61 | (101) ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 13.34/3.61 | (102) sdtlseqdt0(all_0_21_21, xN)
% 13.34/3.61 | (103) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) | ~ (sdtpldt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 13.34/3.61 | (104) ! [v0] : ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0))
% 13.34/3.61 | (105) sdtasdt0(xS, xS) = all_0_18_18
% 13.34/3.61 | (106) sdtasasdt0(xp, xq) = xE
% 13.34/3.61 | (107) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ (sdtasdt0(v2, v2) = v3) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) | ~ iLess0(v4, all_0_26_26) | sdtlseqdt0(v3, v8))))
% 13.34/3.62 | (108) aScalar0(xE)
% 13.34/3.62 | (109) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (sziznziztdt0(v2) = v1) | ~ (sziznziztdt0(v2) = v0))
% 13.34/3.62 | (110) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ( ~ (smndt0(v1) = v2) | ~ (sdtasdt0(v0, v2) = v3) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v4] : ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4))
% 13.34/3.62 | (111) szszuzczcdt0(all_0_25_25) = all_0_26_26
% 13.34/3.62 | (112) aDimensionOf0(xs) = all_0_26_26
% 13.34/3.62 | (113) sdtasdt0(all_0_3_3, all_0_3_3) = all_0_2_2
% 13.34/3.62 | (114) smndt0(sz0z00) = all_0_27_27
% 13.34/3.62 | (115) aVector0(xt)
% 13.34/3.62 | (116) ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) | ~ aNaturalNumber0(v0))
% 13.34/3.62 | (117) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v3] : ? [v4] : ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : ? [v10] : ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00)))
% 13.34/3.62 | (118) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ sdtlseqdt0(v2, v3) | ~ sdtlseqdt0(v0, v1) | ~ sdtlseqdt0(sz0z00, v2) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 13.34/3.62 | (119) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 13.34/3.62 | (120) ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (smndt0(v0) = v1) | ~ aScalar0(v0))
% 13.34/3.62 | (121) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) | ~ (sdtpldt0(v1, v2) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7))
% 13.34/3.62 | (122) sdtpldt0(all_0_19_19, xN) = all_0_7_7
% 13.34/3.62 | (123) sziznziztdt0(xt) = xq
% 13.34/3.62 | (124) sdtlbdtrb0(xs, all_0_26_26) = xA
% 13.34/3.62 | (125) ! [v0] : ! [v1] : (all_0_27_27 = sz0z00 | ~ (sdtasdt0(v0, sz0z00) = v1) | ~ aScalar0(v0))
% 13.34/3.62 | (126) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) | ~ sdtlseqdt0(sz0z00, v1) | ~ sdtlseqdt0(sz0z00, v0) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 13.34/3.62 | (127) aDimensionOf0(xq) = all_0_24_24
% 13.34/3.62 | (128) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (smndt0(v2) = v1) | ~ (smndt0(v2) = v0))
% 13.34/3.62 | (129) ! [v0] : ! [v1] : (v1 = sz0z00 | ~ (sdtasdt0(sz0z00, v0) = v1) | ~ aScalar0(v0))
% 13.34/3.62 | (130) sdtpldt0(all_0_14_14, xN) = all_0_13_13
% 13.34/3.62 | (131) sdtpldt0(all_0_19_19, all_0_18_18) = all_0_17_17
% 13.34/3.62 | (132) ! [v0] : ! [v1] : ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) | ~ aVector0(v0) | ~ aNaturalNumber0(v1) | aScalar0(v2))
% 13.34/3.62 | (133) ! [v0] : ! [v1] : ! [v2] : ( ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 13.34/3.62 | (134) aScalar0(xH)
% 13.34/3.62 | (135) ! [v0] : ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) | ~ aScalar0(v0) | ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0))
% 13.34/3.62 | (136) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v1 = v0 | ~ (sdtlbdtrb0(v3, v2) = v1) | ~ (sdtlbdtrb0(v3, v2) = v0))
% 13.34/3.62 | (137) ! [v0] : ! [v1] : ( ~ (sdtlbdtrb0(xs, v0) = v1) | ~ aNaturalNumber0(v0) | sdtlbdtrb0(xp, v0) = v1)
% 13.34/3.62 | (138) ! [v0] : ! [v1] : ! [v2] : ! [v3] : (v2 = sz00 | ~ (sziznziztdt0(v0) = v3) | ~ (aDimensionOf0(v1) = v2) | ~ aVector0(v1) | ~ aVector0(v0) | ? [v4] : ? [v5] : ? [v6] : ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5)))
% 13.34/3.62 | (139) sziznziztdt0(xs) = xp
% 13.34/3.62 | (140) aScalar0(xD)
% 13.34/3.62 | (141) sdtlbdtrb0(xt, all_0_26_26) = xB
% 13.34/3.62 | (142) sdtpldt0(all_0_17_17, xN) = all_0_14_14
% 13.34/3.62 | (143) ! [v0] : ! [v1] : ! [v2] : (all_0_27_27 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0))
% 13.34/3.62 | (144) sdtasdt0(xC, xG) = xR
% 13.34/3.62 | (145) ! [v0] : ! [v1] : ! [v2] : (v1 = v0 | ~ (szszuzczcdt0(v2) = v1) | ~ (szszuzczcdt0(v2) = v0))
% 13.34/3.62 | (146) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) | ~ (sdtpldt0(v0, v1) = v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v5] : ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5))
% 13.34/3.62 | (147) sdtasdt0(xA, xA) = xF
% 13.34/3.62 | (148) sdtpldt0(xR, xS) = all_0_1_1
% 13.34/3.62 | (149) sdtpldt0(all_0_21_21, all_0_21_21) = all_0_20_20
% 13.34/3.62 | (150) sdtasasdt0(xp, xp) = xC
% 13.34/3.62 | (151) sdtpldt0(all_0_19_19, xN) = all_0_12_12
% 13.34/3.62 | (152) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtasdt0(v0, v1) = v3) | ~ (sdtpldt0(v3, v4) = v5) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v6] : ? [v7] : ? [v8] : ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7))
% 13.34/3.62 | (153) sdtasdt0(xP, xP) = all_0_21_21
% 13.34/3.62 | (154) aScalar0(xC)
% 13.34/3.62 | (155) ! [v0] : ! [v1] : ! [v2] : (v2 = sz0z00 | ~ (smndt0(v0) = v1) | ~ (sdtpldt0(v0, v1) = v2) | ~ aScalar0(v0))
% 13.34/3.62 | (156) ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 13.34/3.62 | (157) ! [v0] : ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) | ~ aNaturalNumber0(v0) | aNaturalNumber0(v1))
% 13.34/3.62 | (158) ! [v0] : ! [v1] : ! [v2] : ! [v3] : ! [v4] : ! [v5] : ! [v6] : ! [v7] : ! [v8] : ! [v9] : ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) | ~ (sdtasdt0(v1, v2) = v7) | ~ (sdtasdt0(v0, v3) = v5) | ~ (sdtasdt0(v0, v2) = v4) | ~ (sdtpldt0(v7, v8) = v9) | ~ (sdtpldt0(v6, v9) = v10) | ~ (sdtpldt0(v4, v5) = v6) | ~ aScalar0(v3) | ~ aScalar0(v2) | ~ aScalar0(v1) | ~ aScalar0(v0) | ? [v11] : ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11))
% 13.34/3.62 |
% 13.34/3.62 | Instantiating formula (46) with all_0_19_19, xN, all_0_12_12, all_0_7_7 and discharging atoms sdtpldt0(all_0_19_19, xN) = all_0_7_7, sdtpldt0(all_0_19_19, xN) = all_0_12_12, yields:
% 13.34/3.63 | (159) all_0_7_7 = all_0_12_12
% 13.34/3.63 |
% 13.34/3.63 | From (159) and (25) follows:
% 13.34/3.63 | (160) sdtpldt0(all_0_12_12, all_0_5_5) = all_0_4_4
% 13.34/3.63 |
% 13.34/3.63 | From (159) and (122) follows:
% 13.34/3.63 | (151) sdtpldt0(all_0_19_19, xN) = all_0_12_12
% 13.34/3.63 |
% 13.34/3.63 | Instantiating formula (158) with all_0_8_8, all_0_20_20, all_0_21_21, all_0_21_21, all_0_20_20, all_0_21_21, all_0_21_21, xP, xP, xP, xP and discharging atoms sdtasdt0(xP, xP) = all_0_21_21, sdtpldt0(all_0_20_20, all_0_20_20) = all_0_8_8, sdtpldt0(all_0_21_21, all_0_21_21) = all_0_20_20, aScalar0(xP), yields:
% 13.34/3.63 | (162) ? [v0] : ? [v1] : (sdtasdt0(v0, v1) = all_0_8_8 & sdtpldt0(xP, xP) = v1 & sdtpldt0(xP, xP) = v0)
% 13.34/3.63 |
% 13.34/3.63 | Instantiating formula (152) with all_0_20_20, all_0_21_21, all_0_21_21, xP, xP, xP and discharging atoms sdtasdt0(xP, xP) = all_0_21_21, sdtpldt0(all_0_21_21, all_0_21_21) = all_0_20_20, aScalar0(xP), yields:
% 13.34/3.63 | (163) ? [v0] : ? [v1] : ? [v2] : ? [v3] : (sdtasdt0(v1, xP) = v2 & sdtasdt0(xP, v0) = all_0_20_20 & sdtasdt0(xP, xP) = v3 & sdtpldt0(all_0_21_21, v3) = v2 & sdtpldt0(xP, xP) = v1 & sdtpldt0(xP, xP) = v0)
% 13.34/3.63 |
% 13.34/3.63 | Instantiating formula (8) with all_0_20_20, all_0_21_21, all_0_21_21, xP, xP, xP and discharging atoms sdtasdt0(xP, xP) = all_0_21_21, sdtpldt0(all_0_21_21, all_0_21_21) = all_0_20_20, aScalar0(xP), yields:
% 13.34/3.63 | (164) ? [v0] : ? [v1] : ? [v2] : ? [v3] : (sdtasdt0(v3, xP) = all_0_20_20 & sdtasdt0(xP, v0) = v1 & sdtasdt0(xP, xP) = v2 & sdtpldt0(v2, all_0_21_21) = v1 & sdtpldt0(xP, xP) = v3 & sdtpldt0(xP, xP) = v0)
% 13.34/3.63 |
% 13.34/3.63 | Instantiating formula (158) with all_0_4_4, all_0_5_5, all_0_18_18, all_0_6_6, all_0_12_12, xN, all_0_19_19, xS, xR, xS, xR and discharging atoms sdtasdt0(xS, xS) = all_0_18_18, sdtasdt0(xS, xR) = all_0_6_6, sdtasdt0(xR, xS) = xN, sdtasdt0(xR, xR) = all_0_19_19, sdtpldt0(all_0_6_6, all_0_18_18) = all_0_5_5, sdtpldt0(all_0_12_12, all_0_5_5) = all_0_4_4, sdtpldt0(all_0_19_19, xN) = all_0_12_12, aScalar0(xS), aScalar0(xR), yields:
% 13.34/3.63 | (165) ? [v0] : ? [v1] : (sdtasdt0(v0, v1) = all_0_4_4 & sdtpldt0(xR, xS) = v1 & sdtpldt0(xR, xS) = v0)
% 13.34/3.63 |
% 13.34/3.63 | Instantiating formula (152) with all_0_5_5, all_0_18_18, all_0_6_6, xS, xR, xS and discharging atoms sdtasdt0(xS, xS) = all_0_18_18, sdtasdt0(xS, xR) = all_0_6_6, sdtpldt0(all_0_6_6, all_0_18_18) = all_0_5_5, aScalar0(xS), aScalar0(xR), yields:
% 13.34/3.63 | (166) ? [v0] : ? [v1] : ? [v2] : ? [v3] : (sdtasdt0(v1, xS) = v2 & sdtasdt0(xS, v0) = all_0_5_5 & sdtasdt0(xR, xS) = v3 & sdtpldt0(all_0_18_18, v3) = v2 & sdtpldt0(xS, xR) = v1 & sdtpldt0(xR, xS) = v0)
% 13.34/3.63 |
% 13.34/3.63 | Instantiating formula (152) with all_0_12_12, xN, all_0_19_19, xS, xR, xR and discharging atoms sdtasdt0(xR, xS) = xN, sdtasdt0(xR, xR) = all_0_19_19, sdtpldt0(all_0_19_19, xN) = all_0_12_12, aScalar0(xS), aScalar0(xR), yields:
% 13.34/3.63 | (167) ? [v0] : ? [v1] : ? [v2] : ? [v3] : (sdtasdt0(v1, xS) = v2 & sdtasdt0(xR, v0) = all_0_12_12 & sdtasdt0(xR, xS) = v3 & sdtpldt0(xN, v3) = v2 & sdtpldt0(xR, xS) = v0 & sdtpldt0(xR, xR) = v1)
% 13.34/3.63 |
% 13.34/3.63 | Instantiating formula (8) with all_0_9_9, xN, all_0_18_18, xS, xR, xS and discharging atoms sdtasdt0(xS, xS) = all_0_18_18, sdtasdt0(xR, xS) = xN, sdtpldt0(all_0_18_18, xN) = all_0_9_9, aScalar0(xS), aScalar0(xR), yields:
% 13.34/3.63 | (168) ? [v0] : ? [v1] : ? [v2] : ? [v3] : (sdtasdt0(v3, xS) = all_0_9_9 & sdtasdt0(xS, v0) = v1 & sdtasdt0(xS, xR) = v2 & sdtpldt0(v2, all_0_18_18) = v1 & sdtpldt0(xS, xR) = v3 & sdtpldt0(xR, xS) = v0)
% 13.34/3.63 |
% 13.34/3.63 | Instantiating (164) with all_53_0_104, all_53_1_105, all_53_2_106, all_53_3_107 yields:
% 13.34/3.63 | (169) sdtasdt0(all_53_0_104, xP) = all_0_20_20 & sdtasdt0(xP, all_53_3_107) = all_53_2_106 & sdtasdt0(xP, xP) = all_53_1_105 & sdtpldt0(all_53_1_105, all_0_21_21) = all_53_2_106 & sdtpldt0(xP, xP) = all_53_0_104 & sdtpldt0(xP, xP) = all_53_3_107
% 13.34/3.63 |
% 13.34/3.63 | Applying alpha-rule on (169) yields:
% 13.34/3.63 | (170) sdtpldt0(xP, xP) = all_53_3_107
% 13.34/3.63 | (171) sdtasdt0(xP, xP) = all_53_1_105
% 13.34/3.63 | (172) sdtpldt0(all_53_1_105, all_0_21_21) = all_53_2_106
% 13.34/3.63 | (173) sdtpldt0(xP, xP) = all_53_0_104
% 13.34/3.63 | (174) sdtasdt0(xP, all_53_3_107) = all_53_2_106
% 13.34/3.63 | (175) sdtasdt0(all_53_0_104, xP) = all_0_20_20
% 13.34/3.63 |
% 13.34/3.63 | Instantiating (162) with all_55_0_108, all_55_1_109 yields:
% 13.34/3.63 | (176) sdtasdt0(all_55_1_109, all_55_0_108) = all_0_8_8 & sdtpldt0(xP, xP) = all_55_0_108 & sdtpldt0(xP, xP) = all_55_1_109
% 13.34/3.63 |
% 13.34/3.63 | Applying alpha-rule on (176) yields:
% 13.34/3.63 | (177) sdtasdt0(all_55_1_109, all_55_0_108) = all_0_8_8
% 13.34/3.63 | (178) sdtpldt0(xP, xP) = all_55_0_108
% 13.34/3.63 | (179) sdtpldt0(xP, xP) = all_55_1_109
% 13.34/3.63 |
% 13.34/3.63 | Instantiating (163) with all_61_0_118, all_61_1_119, all_61_2_120, all_61_3_121 yields:
% 13.34/3.63 | (180) sdtasdt0(all_61_2_120, xP) = all_61_1_119 & sdtasdt0(xP, all_61_3_121) = all_0_20_20 & sdtasdt0(xP, xP) = all_61_0_118 & sdtpldt0(all_0_21_21, all_61_0_118) = all_61_1_119 & sdtpldt0(xP, xP) = all_61_2_120 & sdtpldt0(xP, xP) = all_61_3_121
% 13.34/3.63 |
% 13.34/3.63 | Applying alpha-rule on (180) yields:
% 13.34/3.63 | (181) sdtpldt0(xP, xP) = all_61_2_120
% 13.34/3.63 | (182) sdtpldt0(xP, xP) = all_61_3_121
% 13.34/3.63 | (183) sdtasdt0(xP, all_61_3_121) = all_0_20_20
% 13.34/3.63 | (184) sdtasdt0(xP, xP) = all_61_0_118
% 13.34/3.63 | (185) sdtpldt0(all_0_21_21, all_61_0_118) = all_61_1_119
% 13.34/3.63 | (186) sdtasdt0(all_61_2_120, xP) = all_61_1_119
% 13.34/3.63 |
% 13.34/3.63 | Instantiating (168) with all_119_0_204, all_119_1_205, all_119_2_206, all_119_3_207 yields:
% 13.34/3.63 | (187) sdtasdt0(all_119_0_204, xS) = all_0_9_9 & sdtasdt0(xS, all_119_3_207) = all_119_2_206 & sdtasdt0(xS, xR) = all_119_1_205 & sdtpldt0(all_119_1_205, all_0_18_18) = all_119_2_206 & sdtpldt0(xS, xR) = all_119_0_204 & sdtpldt0(xR, xS) = all_119_3_207
% 13.34/3.63 |
% 13.34/3.63 | Applying alpha-rule on (187) yields:
% 13.34/3.63 | (188) sdtpldt0(all_119_1_205, all_0_18_18) = all_119_2_206
% 13.34/3.63 | (189) sdtasdt0(xS, all_119_3_207) = all_119_2_206
% 13.34/3.63 | (190) sdtpldt0(xS, xR) = all_119_0_204
% 13.34/3.63 | (191) sdtpldt0(xR, xS) = all_119_3_207
% 13.34/3.63 | (192) sdtasdt0(all_119_0_204, xS) = all_0_9_9
% 13.34/3.63 | (193) sdtasdt0(xS, xR) = all_119_1_205
% 13.34/3.63 |
% 13.34/3.63 | Instantiating (167) with all_125_0_213, all_125_1_214, all_125_2_215, all_125_3_216 yields:
% 13.34/3.63 | (194) sdtasdt0(all_125_2_215, xS) = all_125_1_214 & sdtasdt0(xR, all_125_3_216) = all_0_12_12 & sdtasdt0(xR, xS) = all_125_0_213 & sdtpldt0(xN, all_125_0_213) = all_125_1_214 & sdtpldt0(xR, xS) = all_125_3_216 & sdtpldt0(xR, xR) = all_125_2_215
% 13.34/3.63 |
% 13.34/3.63 | Applying alpha-rule on (194) yields:
% 13.34/3.63 | (195) sdtasdt0(xR, xS) = all_125_0_213
% 13.34/3.63 | (196) sdtpldt0(xN, all_125_0_213) = all_125_1_214
% 13.34/3.63 | (197) sdtasdt0(all_125_2_215, xS) = all_125_1_214
% 13.34/3.63 | (198) sdtpldt0(xR, xR) = all_125_2_215
% 13.34/3.63 | (199) sdtasdt0(xR, all_125_3_216) = all_0_12_12
% 13.34/3.63 | (200) sdtpldt0(xR, xS) = all_125_3_216
% 13.34/3.63 |
% 13.34/3.63 | Instantiating (166) with all_127_0_217, all_127_1_218, all_127_2_219, all_127_3_220 yields:
% 13.34/3.63 | (201) sdtasdt0(all_127_2_219, xS) = all_127_1_218 & sdtasdt0(xS, all_127_3_220) = all_0_5_5 & sdtasdt0(xR, xS) = all_127_0_217 & sdtpldt0(all_0_18_18, all_127_0_217) = all_127_1_218 & sdtpldt0(xS, xR) = all_127_2_219 & sdtpldt0(xR, xS) = all_127_3_220
% 13.34/3.63 |
% 13.34/3.63 | Applying alpha-rule on (201) yields:
% 13.34/3.63 | (202) sdtasdt0(all_127_2_219, xS) = all_127_1_218
% 13.34/3.63 | (203) sdtasdt0(xR, xS) = all_127_0_217
% 13.34/3.63 | (204) sdtasdt0(xS, all_127_3_220) = all_0_5_5
% 13.34/3.64 | (205) sdtpldt0(xS, xR) = all_127_2_219
% 13.34/3.64 | (206) sdtpldt0(all_0_18_18, all_127_0_217) = all_127_1_218
% 13.34/3.64 | (207) sdtpldt0(xR, xS) = all_127_3_220
% 13.34/3.64 |
% 13.34/3.64 | Instantiating (165) with all_137_0_241, all_137_1_242 yields:
% 13.34/3.64 | (208) sdtasdt0(all_137_1_242, all_137_0_241) = all_0_4_4 & sdtpldt0(xR, xS) = all_137_0_241 & sdtpldt0(xR, xS) = all_137_1_242
% 13.34/3.64 |
% 13.34/3.64 | Applying alpha-rule on (208) yields:
% 13.34/3.64 | (209) sdtasdt0(all_137_1_242, all_137_0_241) = all_0_4_4
% 13.34/3.64 | (210) sdtpldt0(xR, xS) = all_137_0_241
% 13.34/3.64 | (211) sdtpldt0(xR, xS) = all_137_1_242
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xP, xP, all_55_0_108, all_0_3_3 and discharging atoms sdtpldt0(xP, xP) = all_55_0_108, sdtpldt0(xP, xP) = all_0_3_3, yields:
% 13.34/3.64 | (212) all_55_0_108 = all_0_3_3
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xP, xP, all_55_0_108, all_61_2_120 and discharging atoms sdtpldt0(xP, xP) = all_61_2_120, sdtpldt0(xP, xP) = all_55_0_108, yields:
% 13.34/3.64 | (213) all_61_2_120 = all_55_0_108
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xP, xP, all_55_0_108, all_61_3_121 and discharging atoms sdtpldt0(xP, xP) = all_61_3_121, sdtpldt0(xP, xP) = all_55_0_108, yields:
% 13.34/3.64 | (214) all_61_3_121 = all_55_0_108
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xP, xP, all_55_1_109, all_55_0_108 and discharging atoms sdtpldt0(xP, xP) = all_55_0_108, sdtpldt0(xP, xP) = all_55_1_109, yields:
% 13.34/3.64 | (215) all_55_0_108 = all_55_1_109
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xP, xP, all_53_0_104, all_61_2_120 and discharging atoms sdtpldt0(xP, xP) = all_61_2_120, sdtpldt0(xP, xP) = all_53_0_104, yields:
% 13.34/3.64 | (216) all_61_2_120 = all_53_0_104
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xP, xP, all_53_3_107, all_61_3_121 and discharging atoms sdtpldt0(xP, xP) = all_61_3_121, sdtpldt0(xP, xP) = all_53_3_107, yields:
% 13.34/3.64 | (217) all_61_3_121 = all_53_3_107
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xR, xS, all_137_0_241, all_0_1_1 and discharging atoms sdtpldt0(xR, xS) = all_137_0_241, sdtpldt0(xR, xS) = all_0_1_1, yields:
% 13.34/3.64 | (218) all_137_0_241 = all_0_1_1
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xR, xS, all_127_3_220, all_137_1_242 and discharging atoms sdtpldt0(xR, xS) = all_137_1_242, sdtpldt0(xR, xS) = all_127_3_220, yields:
% 13.34/3.64 | (219) all_137_1_242 = all_127_3_220
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xR, xS, all_125_3_216, all_137_0_241 and discharging atoms sdtpldt0(xR, xS) = all_137_0_241, sdtpldt0(xR, xS) = all_125_3_216, yields:
% 13.34/3.64 | (220) all_137_0_241 = all_125_3_216
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xR, xS, all_125_3_216, all_127_3_220 and discharging atoms sdtpldt0(xR, xS) = all_127_3_220, sdtpldt0(xR, xS) = all_125_3_216, yields:
% 13.34/3.64 | (221) all_127_3_220 = all_125_3_216
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (46) with xR, xS, all_119_3_207, all_137_1_242 and discharging atoms sdtpldt0(xR, xS) = all_137_1_242, sdtpldt0(xR, xS) = all_119_3_207, yields:
% 13.34/3.64 | (222) all_137_1_242 = all_119_3_207
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (220,218) yields a new equation:
% 13.34/3.64 | (223) all_125_3_216 = all_0_1_1
% 13.34/3.64 |
% 13.34/3.64 | Simplifying 223 yields:
% 13.34/3.64 | (224) all_125_3_216 = all_0_1_1
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (219,222) yields a new equation:
% 13.34/3.64 | (225) all_127_3_220 = all_119_3_207
% 13.34/3.64 |
% 13.34/3.64 | Simplifying 225 yields:
% 13.34/3.64 | (226) all_127_3_220 = all_119_3_207
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (221,226) yields a new equation:
% 13.34/3.64 | (227) all_125_3_216 = all_119_3_207
% 13.34/3.64 |
% 13.34/3.64 | Simplifying 227 yields:
% 13.34/3.64 | (228) all_125_3_216 = all_119_3_207
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (228,224) yields a new equation:
% 13.34/3.64 | (229) all_119_3_207 = all_0_1_1
% 13.34/3.64 |
% 13.34/3.64 | Simplifying 229 yields:
% 13.34/3.64 | (230) all_119_3_207 = all_0_1_1
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (213,216) yields a new equation:
% 13.34/3.64 | (231) all_55_0_108 = all_53_0_104
% 13.34/3.64 |
% 13.34/3.64 | Simplifying 231 yields:
% 13.34/3.64 | (232) all_55_0_108 = all_53_0_104
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (214,217) yields a new equation:
% 13.34/3.64 | (233) all_55_0_108 = all_53_3_107
% 13.34/3.64 |
% 13.34/3.64 | Simplifying 233 yields:
% 13.34/3.64 | (234) all_55_0_108 = all_53_3_107
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (234,215) yields a new equation:
% 13.34/3.64 | (235) all_55_1_109 = all_53_3_107
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (232,215) yields a new equation:
% 13.34/3.64 | (236) all_55_1_109 = all_53_0_104
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (212,215) yields a new equation:
% 13.34/3.64 | (237) all_55_1_109 = all_0_3_3
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (235,236) yields a new equation:
% 13.34/3.64 | (238) all_53_0_104 = all_53_3_107
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (237,236) yields a new equation:
% 13.34/3.64 | (239) all_53_0_104 = all_0_3_3
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (239,238) yields a new equation:
% 13.34/3.64 | (240) all_53_3_107 = all_0_3_3
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (240,238) yields a new equation:
% 13.34/3.64 | (239) all_53_0_104 = all_0_3_3
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (239,236) yields a new equation:
% 13.34/3.64 | (237) all_55_1_109 = all_0_3_3
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (237,215) yields a new equation:
% 13.34/3.64 | (212) all_55_0_108 = all_0_3_3
% 13.34/3.64 |
% 13.34/3.64 | Combining equations (230,222) yields a new equation:
% 13.34/3.64 | (244) all_137_1_242 = all_0_1_1
% 13.34/3.64 |
% 13.34/3.64 | From (244)(218) and (209) follows:
% 13.34/3.64 | (245) sdtasdt0(all_0_1_1, all_0_1_1) = all_0_4_4
% 13.34/3.64 |
% 13.34/3.64 | From (237)(212) and (177) follows:
% 13.34/3.64 | (246) sdtasdt0(all_0_3_3, all_0_3_3) = all_0_8_8
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (16) with all_0_1_1, all_0_1_1, all_0_4_4, all_0_0_0 and discharging atoms sdtasdt0(all_0_1_1, all_0_1_1) = all_0_0_0, sdtasdt0(all_0_1_1, all_0_1_1) = all_0_4_4, yields:
% 13.34/3.64 | (247) all_0_0_0 = all_0_4_4
% 13.34/3.64 |
% 13.34/3.64 | Instantiating formula (16) with all_0_3_3, all_0_3_3, all_0_8_8, all_0_2_2 and discharging atoms sdtasdt0(all_0_3_3, all_0_3_3) = all_0_2_2, sdtasdt0(all_0_3_3, all_0_3_3) = all_0_8_8, yields:
% 13.34/3.64 | (248) all_0_2_2 = all_0_8_8
% 13.34/3.64 |
% 13.34/3.64 | From (248)(247) and (87) follows:
% 13.34/3.64 | (249) ~ sdtlseqdt0(all_0_8_8, all_0_4_4)
% 13.34/3.64 |
% 13.34/3.64 | Using (92) and (249) yields:
% 13.34/3.64 | (250) $false
% 13.34/3.64 |
% 13.34/3.65 |-The branch is then unsatisfiable
% 13.34/3.65 % SZS output end Proof for theBenchmark
% 13.34/3.65
% 13.34/3.65 3038ms
%------------------------------------------------------------------------------