TSTP Solution File: RNG055+1 by ePrincess---1.0

View Problem - Process Solution

%------------------------------------------------------------------------------
% File     : ePrincess---1.0
% Problem  : RNG055+1 : TPTP v8.1.0. Released v4.0.0.
% Transfm  : none
% Format   : tptp:raw
% Command  : ePrincess-casc -timeout=%d %s

% Computer : n026.cluster.edu
% Model    : x86_64 x86_64
% CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 2.10GHz
% Memory   : 8042.1875MB
% OS       : Linux 3.10.0-693.el7.x86_64
% CPULimit : 300s
% WCLimit  : 600s
% DateTime : Mon Jul 18 20:25:12 EDT 2022

% Result   : Theorem 12.66s 4.58s
% Output   : Proof 25.23s
% Verified : 
% SZS Type : -

% Comments : 
%------------------------------------------------------------------------------
%----WARNING: Could not form TPTP format derivation
%------------------------------------------------------------------------------
%----ORIGINAL SYSTEM OUTPUT
% 0.06/0.11  % Problem  : RNG055+1 : TPTP v8.1.0. Released v4.0.0.
% 0.06/0.11  % Command  : ePrincess-casc -timeout=%d %s
% 0.11/0.31  % Computer : n026.cluster.edu
% 0.11/0.31  % Model    : x86_64 x86_64
% 0.11/0.31  % CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz
% 0.11/0.31  % Memory   : 8042.1875MB
% 0.11/0.31  % OS       : Linux 3.10.0-693.el7.x86_64
% 0.11/0.31  % CPULimit : 300
% 0.11/0.31  % WCLimit  : 600
% 0.11/0.31  % DateTime : Mon May 30 18:20:40 EDT 2022
% 0.11/0.31  % CPUTime  : 
% 0.50/0.56          ____       _                          
% 0.50/0.56    ___  / __ \_____(_)___  ________  __________
% 0.50/0.56   / _ \/ /_/ / ___/ / __ \/ ___/ _ \/ ___/ ___/
% 0.50/0.56  /  __/ ____/ /  / / / / / /__/  __(__  |__  ) 
% 0.50/0.56  \___/_/   /_/  /_/_/ /_/\___/\___/____/____/  
% 0.50/0.56  
% 0.50/0.56  A Theorem Prover for First-Order Logic
% 0.50/0.57  (ePrincess v.1.0)
% 0.50/0.57  
% 0.50/0.57  (c) Philipp Rümmer, 2009-2015
% 0.50/0.57  (c) Peter Backeman, 2014-2015
% 0.50/0.57  (contributions by Angelo Brillout, Peter Baumgartner)
% 0.50/0.57  Free software under GNU Lesser General Public License (LGPL).
% 0.50/0.57  Bug reports to peter@backeman.se
% 0.50/0.57  
% 0.50/0.57  For more information, visit http://user.uu.se/~petba168/breu/
% 0.50/0.57  
% 0.50/0.57  Loading /export/starexec/sandbox2/benchmark/theBenchmark.p ...
% 0.50/0.61  Prover 0: Options:  -triggersInConjecture -genTotalityAxioms -tightFunctionScopes -clausifier=simple -reverseFunctionalityPropagation +boolFunsAsPreds -triggerStrategy=allMaximal -resolutionMethod=nonUnifying +ignoreQuantifiers -generateTriggers=all
% 1.77/0.95  Prover 0: Preprocessing ...
% 3.79/1.45  Prover 0: Constructing countermodel ...
% 12.66/4.58  Prover 0: proved (3968ms)
% 12.66/4.58  
% 12.66/4.58  No countermodel exists, formula is valid
% 12.66/4.58  % SZS status Theorem for theBenchmark
% 12.66/4.58  
% 12.66/4.58  Generating proof ... found it (size 55)
% 24.54/8.39  
% 24.54/8.39  % SZS output start Proof for theBenchmark
% 24.54/8.39  Assumed formulas after preprocessing and simplification: 
% 24.54/8.39  | (0)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] : ( ~ (v6 = v4) &  ~ (v1 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, v1) = xB & sdtlbdtrb0(xs, v1) = xA & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v1 & smndt0(sz0z00) = v0 & sdtasdt0(v5, v2) = v6 & sdtasdt0(xP, xP) = v4 & sdtasdt0(xR, xS) = xN & sdtasdt0(xH, xH) = v5 & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = v2 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = v3 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(v2, v3) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] :  ! [v16] :  ! [v17] : ( ~ (sdtasdt0(v8, v10) = v15) |  ~ (sdtasdt0(v8, v9) = v14) |  ~ (sdtasdt0(v7, v10) = v12) |  ~ (sdtasdt0(v7, v9) = v11) |  ~ (sdtpldt0(v14, v15) = v16) |  ~ (sdtpldt0(v13, v16) = v17) |  ~ (sdtpldt0(v11, v12) = v13) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v18] :  ? [v19] : (sdtasdt0(v18, v19) = v17 & sdtpldt0(v9, v10) = v19 & sdtpldt0(v7, v8) = v18)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] :  ! [v16] : (v9 = sz00 |  ~ (sdtasasdt0(v10, v11) = v12) |  ~ (sziznziztdt0(v8) = v11) |  ~ (sziznziztdt0(v7) = v10) |  ~ (sdtlbdtrb0(v8, v9) = v14) |  ~ (sdtlbdtrb0(v7, v9) = v13) |  ~ (aDimensionOf0(v8) = v9) |  ~ (aDimensionOf0(v7) = v9) |  ~ (sdtasdt0(v13, v14) = v15) |  ~ (sdtpldt0(v12, v15) = v16) |  ~ aVector0(v8) |  ~ aVector0(v7) | sdtasasdt0(v7, v8) = v16) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtasdt0(v11, v12) = v13) |  ~ (sdtpldt0(v9, v10) = v12) |  ~ (sdtpldt0(v7, v8) = v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] : (sdtasdt0(v8, v10) = v18 & sdtasdt0(v8, v9) = v17 & sdtasdt0(v7, v10) = v15 & sdtasdt0(v7, v9) = v14 & sdtpldt0(v17, v18) = v19 & sdtpldt0(v16, v19) = v13 & sdtpldt0(v14, v15) = v16)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v8, v10) = v12) |  ~ (sdtasdt0(v7, v9) = v11) |  ~ sdtlseqdt0(v9, v10) |  ~ sdtlseqdt0(v7, v8) |  ~ sdtlseqdt0(sz0z00, v9) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | sdtlseqdt0(v11, v12)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v8, v9) = v11) |  ~ (sdtasdt0(v7, v9) = v10) |  ~ (sdtpldt0(v10, v11) = v12) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v16, v9) = v12 & sdtasdt0(v7, v13) = v14 & sdtasdt0(v7, v8) = v15 & sdtpldt0(v15, v10) = v14 & sdtpldt0(v8, v9) = v13 & sdtpldt0(v7, v8) = v16)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v7, v9) = v11) |  ~ (sdtasdt0(v7, v8) = v10) |  ~ (sdtpldt0(v10, v11) = v12) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v14, v9) = v15 & sdtasdt0(v8, v9) = v16 & sdtasdt0(v7, v13) = v12 & sdtpldt0(v11, v16) = v15 & sdtpldt0(v8, v9) = v13 & sdtpldt0(v7, v8) = v14)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtpldt0(v8, v10) = v12) |  ~ (sdtpldt0(v7, v9) = v11) |  ~ sdtlseqdt0(v9, v10) |  ~ sdtlseqdt0(v7, v8) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | sdtlseqdt0(v11, v12)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtasasdt0(v8, v8) = v10) |  ~ (sdtasasdt0(v7, v7) = v9) |  ~ (sdtasdt0(v9, v10) = v11) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sdtasasdt0(v7, v8) = v14 & aDimensionOf0(v8) = v13 & aDimensionOf0(v7) = v12 & sdtasdt0(v14, v14) = v15 & ( ~ (v13 = v12) |  ~ iLess0(v12, v1) | sdtlseqdt0(v15, v11)))) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (smndt0(v8) = v10) |  ~ (smndt0(v7) = v9) |  ~ (sdtasdt0(v9, v10) = v11) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | sdtasdt0(v7, v8) = v11) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtasdt0(v10, v9) = v11) |  ~ (sdtasdt0(v7, v8) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sdtasdt0(v8, v9) = v15 & sdtasdt0(v8, v7) = v10 & sdtasdt0(v7, v15) = v11 & sdtpldt0(v12, v9) = v13 & sdtpldt0(v8, v9) = v14 & sdtpldt0(v8, v7) = v12 & sdtpldt0(v7, v14) = v13 & sdtpldt0(v7, v8) = v12)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtasdt0(v10, v9) = v11) |  ~ (sdtpldt0(v7, v8) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v8, v9) = v16 & sdtasdt0(v7, v12) = v13 & sdtasdt0(v7, v9) = v15 & sdtasdt0(v7, v8) = v14 & sdtpldt0(v15, v16) = v11 & sdtpldt0(v14, v15) = v13 & sdtpldt0(v8, v9) = v12)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtasdt0(v8, v9) = v10) |  ~ (sdtasdt0(v7, v10) = v11) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sdtasdt0(v15, v9) = v11 & sdtasdt0(v8, v7) = v15 & sdtasdt0(v7, v8) = v15 & sdtpldt0(v12, v9) = v13 & sdtpldt0(v8, v9) = v14 & sdtpldt0(v8, v7) = v12 & sdtpldt0(v7, v14) = v13 & sdtpldt0(v7, v8) = v12)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtasdt0(v7, v10) = v11) |  ~ (sdtpldt0(v8, v9) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v14, v9) = v15 & sdtasdt0(v8, v9) = v16 & sdtasdt0(v7, v9) = v13 & sdtasdt0(v7, v8) = v12 & sdtpldt0(v13, v16) = v15 & sdtpldt0(v12, v13) = v11 & sdtpldt0(v7, v8) = v14)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtpldt0(v10, v9) = v11) |  ~ (sdtpldt0(v7, v8) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sdtasdt0(v13, v9) = v14 & sdtasdt0(v8, v9) = v15 & sdtasdt0(v8, v7) = v13 & sdtasdt0(v7, v15) = v14 & sdtasdt0(v7, v8) = v13 & sdtpldt0(v8, v9) = v12 & sdtpldt0(v8, v7) = v10 & sdtpldt0(v7, v12) = v11)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtpldt0(v8, v9) = v10) |  ~ (sdtpldt0(v7, v10) = v11) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sdtasdt0(v13, v9) = v14 & sdtasdt0(v8, v9) = v15 & sdtasdt0(v8, v7) = v13 & sdtasdt0(v7, v15) = v14 & sdtasdt0(v7, v8) = v13 & sdtpldt0(v12, v9) = v11 & sdtpldt0(v8, v7) = v12 & sdtpldt0(v7, v8) = v12)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : (v9 = sz00 |  ~ (sziznziztdt0(v7) = v10) |  ~ (aDimensionOf0(v8) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] : (sziznziztdt0(v8) = v13 & aDimensionOf0(v13) = v14 & aDimensionOf0(v10) = v12 & aDimensionOf0(v7) = v11 & ( ~ (v11 = v9) | v14 = v12))) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : (v8 = v7 |  ~ (sdtasasdt0(v10, v9) = v8) |  ~ (sdtasasdt0(v10, v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : (v8 = v7 |  ~ (sdtlbdtrb0(v10, v9) = v8) |  ~ (sdtlbdtrb0(v10, v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : (v8 = v7 |  ~ (sdtasdt0(v10, v9) = v8) |  ~ (sdtasdt0(v10, v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : (v8 = v7 |  ~ (sdtpldt0(v10, v9) = v8) |  ~ (sdtpldt0(v10, v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasasdt0(v7, v8) = v9) |  ~ (sdtasdt0(v9, v9) = v10) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sdtasasdt0(v8, v8) = v14 & sdtasasdt0(v7, v7) = v13 & aDimensionOf0(v8) = v12 & aDimensionOf0(v7) = v11 & sdtasdt0(v13, v14) = v15 & ( ~ (v12 = v11) |  ~ iLess0(v11, v1) | sdtlseqdt0(v10, v15)))) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sziznziztdt0(v8) = v10) |  ~ (sziznziztdt0(v7) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] : (aDimensionOf0(v10) = v14 & aDimensionOf0(v9) = v13 & aDimensionOf0(v8) = v12 & aDimensionOf0(v7) = v11 & ( ~ (v12 = v11) | v14 = v13 | v11 = sz00))) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sziznziztdt0(v8) = v10) |  ~ (aDimensionOf0(v7) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] : (sziznziztdt0(v7) = v12 & aDimensionOf0(v12) = v13 & aDimensionOf0(v10) = v14 & aDimensionOf0(v8) = v11 & ( ~ (v11 = v9) | v14 = v13 | v9 = sz00))) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (smndt0(v8) = v9) |  ~ (sdtasdt0(v7, v9) = v10) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v11] :  ? [v12] : (smndt0(v11) = v10 & smndt0(v7) = v12 & sdtasdt0(v12, v8) = v10 & sdtasdt0(v7, v8) = v11)) &  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (smndt0(v7) = v9) |  ~ (sdtasdt0(v9, v8) = v10) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v11] :  ? [v12] : (smndt0(v12) = v10 & smndt0(v8) = v11 & sdtasdt0(v7, v11) = v10 & sdtasdt0(v7, v8) = v12)) &  ! [v7] :  ! [v8] :  ! [v9] : (v9 = sz0z00 |  ~ (sdtasasdt0(v7, v8) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v10] :  ? [v11] : (aDimensionOf0(v8) = v11 & aDimensionOf0(v7) = v10 & ( ~ (v11 = sz00) |  ~ (v10 = sz00)))) &  ! [v7] :  ! [v8] :  ! [v9] : (v9 = sz0z00 |  ~ (smndt0(v7) = v8) |  ~ (sdtpldt0(v8, v7) = v9) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v9 = sz0z00 |  ~ (smndt0(v7) = v8) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v9 = sz00 |  ~ (aDimensionOf0(v8) = v9) |  ~ (aDimensionOf0(v7) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v10] :  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasasdt0(v11, v12) = v13 & sdtasasdt0(v7, v8) = v10 & sziznziztdt0(v8) = v12 & sziznziztdt0(v7) = v11 & sdtlbdtrb0(v8, v9) = v15 & sdtlbdtrb0(v7, v9) = v14 & sdtasdt0(v14, v15) = v16 & sdtpldt0(v13, v16) = v10)) &  ! [v7] :  ! [v8] :  ! [v9] : (v9 = sz00 |  ~ (aDimensionOf0(v8) = v9) |  ~ (aDimensionOf0(v7) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v10] :  ? [v11] :  ? [v12] : (sziznziztdt0(v8) = v12 & sziznziztdt0(v7) = v10 & aDimensionOf0(v12) = v11 & aDimensionOf0(v10) = v11)) &  ! [v7] :  ! [v8] :  ! [v9] : (v8 = v7 |  ~ (sziznziztdt0(v9) = v8) |  ~ (sziznziztdt0(v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v8 = v7 |  ~ (aDimensionOf0(v9) = v8) |  ~ (aDimensionOf0(v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v8 = v7 |  ~ (smndt0(v9) = v8) |  ~ (smndt0(v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v8 = v7 |  ~ (sdtasdt0(v8, v8) = v9) |  ~ (sdtasdt0(v7, v7) = v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ sdtlseqdt0(sz0z00, v7) |  ~ aScalar0(v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v8 = v7 |  ~ (szszuzczcdt0(v9) = v8) |  ~ (szszuzczcdt0(v9) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v8 = v7 |  ~ (szszuzczcdt0(v8) = v9) |  ~ (szszuzczcdt0(v7) = v9) |  ~ aNaturalNumber0(v8) |  ~ aNaturalNumber0(v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v0 = sz0z00 |  ~ (smndt0(v7) = v8) |  ~ (sdtpldt0(v8, v7) = v9) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] :  ! [v9] : (v0 = sz0z00 |  ~ (smndt0(v7) = v8) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtasasdt0(v7, v8) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) | aScalar0(v9) |  ? [v10] :  ? [v11] : ( ~ (v11 = v10) & aDimensionOf0(v8) = v11 & aDimensionOf0(v7) = v10)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtasasdt0(v7, v8) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v10] :  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] : (sdtasasdt0(v12, v13) = v14 & sziznziztdt0(v8) = v13 & sziznziztdt0(v7) = v12 & sdtlbdtrb0(v8, v11) = v16 & sdtlbdtrb0(v7, v10) = v15 & aDimensionOf0(v8) = v11 & aDimensionOf0(v7) = v10 & sdtasdt0(v15, v16) = v17 & sdtpldt0(v14, v17) = v18 & ( ~ (v11 = v10) | v18 = v9 | v10 = sz00))) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtlbdtrb0(v7, v8) = v9) |  ~ aVector0(v7) |  ~ aNaturalNumber0(v8) | aScalar0(v9)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (aDimensionOf0(v8) = v9) |  ~ (aDimensionOf0(v7) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ~ iLess0(v9, v1) |  ? [v10] :  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] : (sdtasasdt0(v8, v8) = v13 & sdtasasdt0(v7, v8) = v10 & sdtasasdt0(v7, v7) = v12 & sdtasdt0(v12, v13) = v14 & sdtasdt0(v10, v10) = v11 & sdtlseqdt0(v11, v14))) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (aDimensionOf0(v8) = v9) |  ~ (aDimensionOf0(v7) = v9) |  ~ aVector0(v8) |  ~ aVector0(v7) |  ? [v10] : (sdtasasdt0(v7, v8) = v10 & aScalar0(v10))) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (smndt0(v7) = v8) |  ~ (sdtpldt0(v8, v7) = v9) |  ~ aScalar0(v7) | (smndt0(v8) = v7 & sdtasdt0(v7, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v7) = sz0z00 & sdtpldt0(v7, v8) = sz0z00 & sdtpldt0(v7, sz0z00) = v7 & sdtpldt0(sz0z00, v7) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (smndt0(v7) = v8) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ aScalar0(v7) | (smndt0(v8) = v7 & sdtasdt0(v7, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v7) = sz0z00 & sdtpldt0(v8, v7) = sz0z00 & sdtpldt0(v7, sz0z00) = v7 & sdtpldt0(sz0z00, v7) = v7)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(v7, v8) = v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ sdtlseqdt0(sz0z00, v7) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | sdtlseqdt0(sz0z00, v9)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(v7, v8) = v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ sdtlseqdt0(sz0z00, v7) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v10] : (sdtpldt0(v7, v8) = v10 & sdtlseqdt0(sz0z00, v10))) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(v7, v8) = v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | aScalar0(v9)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(v7, v8) = v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v10] :  ? [v11] :  ? [v12] : (smndt0(v9) = v11 & smndt0(v8) = v10 & smndt0(v7) = v12 & sdtasdt0(v12, v8) = v11 & sdtasdt0(v7, v10) = v11)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(v7, v8) = v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v10] :  ? [v11] : (smndt0(v8) = v11 & smndt0(v7) = v10 & sdtasdt0(v10, v11) = v9)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtpldt0(v7, v8) = v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ sdtlseqdt0(sz0z00, v7) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | sdtlseqdt0(sz0z00, v9)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtpldt0(v7, v8) = v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ sdtlseqdt0(sz0z00, v7) |  ~ aScalar0(v8) |  ~ aScalar0(v7) |  ? [v10] : (sdtasdt0(v7, v8) = v10 & sdtlseqdt0(sz0z00, v10))) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ (sdtpldt0(v7, v8) = v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | aScalar0(v9)) &  ! [v7] :  ! [v8] :  ! [v9] : ( ~ sdtlseqdt0(v8, v9) |  ~ sdtlseqdt0(v7, v8) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ~ aScalar0(v7) | sdtlseqdt0(v7, v9)) &  ! [v7] :  ! [v8] : (v8 = v7 |  ~ (sdtpldt0(v7, sz0z00) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v8 = v7 |  ~ (sdtpldt0(sz0z00, v7) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v8 = v7 |  ~ sdtlseqdt0(v8, v7) |  ~ sdtlseqdt0(v7, v8) |  ~ aScalar0(v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v8 = sz0z00 |  ~ (sdtasdt0(v7, sz0z00) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v8 = sz0z00 |  ~ (sdtasdt0(sz0z00, v7) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v8 = sz00 |  ~ (aDimensionOf0(v7) = v8) |  ~ aVector0(v7) |  ? [v9] : (sziznziztdt0(v7) = v9 &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtlbdtrb0(v9, v11) = v12) |  ~ (aDimensionOf0(v9) = v10) |  ~ aNaturalNumber0(v11) | sdtlbdtrb0(v7, v11) = v12) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtlbdtrb0(v7, v11) = v12) |  ~ (aDimensionOf0(v9) = v10) |  ~ aNaturalNumber0(v11) | sdtlbdtrb0(v9, v11) = v12) &  ! [v10] :  ! [v11] : (v10 = v9 |  ~ (aDimensionOf0(v10) = v11) |  ~ aVector0(v10) |  ? [v12] :  ? [v13] :  ? [v14] : (( ~ (v14 = v13) & sdtlbdtrb0(v10, v12) = v13 & sdtlbdtrb0(v7, v12) = v14 & aNaturalNumber0(v12)) | ( ~ (v12 = v8) & szszuzczcdt0(v11) = v12))) &  ! [v10] : ( ~ (aDimensionOf0(v9) = v10) | szszuzczcdt0(v10) = v8) &  ! [v10] : ( ~ (aDimensionOf0(v9) = v10) | aVector0(v9)))) &  ! [v7] :  ! [v8] : (v0 = sz0z00 |  ~ (smndt0(v7) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v0 = sz0z00 |  ~ (sdtasdt0(v7, sz0z00) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v0 = sz0z00 |  ~ (sdtasdt0(sz0z00, v7) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v0 = sz0z00 |  ~ (sdtpldt0(v7, sz0z00) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : (v0 = sz0z00 |  ~ (sdtpldt0(sz0z00, v7) = v8) |  ~ aScalar0(v7)) &  ! [v7] :  ! [v8] : ( ~ (sdtasasdt0(v7, v7) = v8) |  ~ aVector0(v7) | sdtlseqdt0(sz0z00, v8)) &  ! [v7] :  ! [v8] : ( ~ (sziznziztdt0(v7) = v8) |  ~ aVector0(v7) |  ? [v9] : (aDimensionOf0(v7) = v9 & (v9 = sz00 | ( ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtlbdtrb0(v8, v11) = v12) |  ~ (aDimensionOf0(v8) = v10) |  ~ aNaturalNumber0(v11) | sdtlbdtrb0(v7, v11) = v12) &  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtlbdtrb0(v7, v11) = v12) |  ~ (aDimensionOf0(v8) = v10) |  ~ aNaturalNumber0(v11) | sdtlbdtrb0(v8, v11) = v12) &  ! [v10] :  ! [v11] : (v10 = v8 |  ~ (aDimensionOf0(v10) = v11) |  ~ aVector0(v10) |  ? [v12] :  ? [v13] :  ? [v14] : (( ~ (v14 = v13) & sdtlbdtrb0(v10, v12) = v13 & sdtlbdtrb0(v7, v12) = v14 & aNaturalNumber0(v12)) | ( ~ (v12 = v9) & szszuzczcdt0(v11) = v12))) &  ! [v10] : ( ~ (aDimensionOf0(v8) = v10) | szszuzczcdt0(v10) = v9) &  ! [v10] : ( ~ (aDimensionOf0(v8) = v10) | aVector0(v8)))))) &  ! [v7] :  ! [v8] : ( ~ (aDimensionOf0(v8) = sz00) |  ~ (aDimensionOf0(v7) = sz00) |  ~ aVector0(v8) |  ~ aVector0(v7) | sdtasasdt0(v7, v8) = sz0z00) &  ! [v7] :  ! [v8] : ( ~ (aDimensionOf0(v7) = v8) |  ~ aVector0(v7) | aNaturalNumber0(v8)) &  ! [v7] :  ! [v8] : ( ~ (smndt0(v7) = v8) |  ~ aScalar0(v7) | aScalar0(v8)) &  ! [v7] :  ! [v8] : ( ~ (smndt0(v7) = v8) |  ~ aScalar0(v7) | (smndt0(v8) = v7 & sdtasdt0(v7, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v7) = sz0z00 & sdtpldt0(v8, v7) = sz0z00 & sdtpldt0(v7, v8) = sz0z00 & sdtpldt0(v7, sz0z00) = v7 & sdtpldt0(sz0z00, v7) = v7)) &  ! [v7] :  ! [v8] : ( ~ (sdtasdt0(v7, v7) = v8) |  ~ aScalar0(v7) | sdtlseqdt0(sz0z00, v8)) &  ! [v7] :  ! [v8] : ( ~ (sdtasdt0(v7, sz0z00) = v8) |  ~ aScalar0(v7) |  ? [v9] : (smndt0(v9) = v7 & smndt0(v7) = v9 & sdtasdt0(sz0z00, v7) = sz0z00 & sdtpldt0(v9, v7) = sz0z00 & sdtpldt0(v7, v9) = sz0z00 & sdtpldt0(v7, sz0z00) = v7 & sdtpldt0(sz0z00, v7) = v7)) &  ! [v7] :  ! [v8] : ( ~ (sdtasdt0(sz0z00, v7) = v8) |  ~ aScalar0(v7) |  ? [v9] : (smndt0(v9) = v7 & smndt0(v7) = v9 & sdtasdt0(v7, sz0z00) = sz0z00 & sdtpldt0(v9, v7) = sz0z00 & sdtpldt0(v7, v9) = sz0z00 & sdtpldt0(v7, sz0z00) = v7 & sdtpldt0(sz0z00, v7) = v7)) &  ! [v7] :  ! [v8] : ( ~ (sdtpldt0(v7, sz0z00) = v8) |  ~ aScalar0(v7) |  ? [v9] : (smndt0(v9) = v7 & smndt0(v7) = v9 & sdtasdt0(v7, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v7) = sz0z00 & sdtpldt0(v9, v7) = sz0z00 & sdtpldt0(v7, v9) = sz0z00 & sdtpldt0(sz0z00, v7) = v7)) &  ! [v7] :  ! [v8] : ( ~ (sdtpldt0(sz0z00, v7) = v8) |  ~ aScalar0(v7) |  ? [v9] : (smndt0(v9) = v7 & smndt0(v7) = v9 & sdtasdt0(v7, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v7) = sz0z00 & sdtpldt0(v9, v7) = sz0z00 & sdtpldt0(v7, v9) = sz0z00 & sdtpldt0(v7, sz0z00) = v7)) &  ! [v7] :  ! [v8] : ( ~ (szszuzczcdt0(v7) = v8) |  ~ aNaturalNumber0(v7) | iLess0(v7, v8)) &  ! [v7] :  ! [v8] : ( ~ (szszuzczcdt0(v7) = v8) |  ~ aNaturalNumber0(v7) | aNaturalNumber0(v8)) &  ! [v7] :  ! [v8] : ( ~ aScalar0(v8) |  ~ aScalar0(v7) | sdtlseqdt0(v8, v7) | sdtlseqdt0(v7, v8)) &  ! [v7] : (v7 = sz00 |  ~ aNaturalNumber0(v7) |  ? [v8] : (szszuzczcdt0(v8) = v7 & aNaturalNumber0(v8))) &  ! [v7] : ( ~ (szszuzczcdt0(v7) = sz00) |  ~ aNaturalNumber0(v7)) &  ! [v7] : ( ~ aScalar0(v7) | sdtlseqdt0(v7, v7)))
% 24.82/8.47  | Instantiating (0) with all_0_0_0, all_0_1_1, all_0_2_2, all_0_3_3, all_0_4_4, all_0_5_5, all_0_6_6 yields:
% 24.82/8.47  | (1)  ~ (all_0_0_0 = all_0_2_2) &  ~ (all_0_5_5 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, all_0_5_5) = xB & sdtlbdtrb0(xs, all_0_5_5) = xA & aDimensionOf0(xt) = all_0_5_5 & aDimensionOf0(xs) = all_0_5_5 & smndt0(sz0z00) = all_0_6_6 & sdtasdt0(all_0_1_1, all_0_4_4) = all_0_0_0 & sdtasdt0(xP, xP) = all_0_2_2 & sdtasdt0(xR, xS) = xN & sdtasdt0(xH, xH) = all_0_1_1 & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = all_0_4_4 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = all_0_3_3 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(all_0_4_4, all_0_3_3) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, all_0_5_5) | sdtlseqdt0(v8, v4)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, all_0_5_5) | sdtlseqdt0(v3, v8)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00)))) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_6_6 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_6_6 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, all_0_5_5) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2)))) &  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1)))))) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1)) &  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1))) &  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0)) &  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 25.23/8.50  |
% 25.23/8.50  | Applying alpha-rule on (1) yields:
% 25.23/8.50  | (2)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9))
% 25.23/8.50  | (3)  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 25.23/8.50  | (4) sdtlseqdt0(all_0_4_4, all_0_3_3)
% 25.23/8.50  | (5)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4))
% 25.23/8.50  | (6)  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1)))
% 25.23/8.50  | (7)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0))
% 25.23/8.51  | (8) sdtasdt0(xE, xH) = xP
% 25.23/8.51  | (9) aVector0(xs)
% 25.23/8.51  | (10)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0))
% 25.23/8.51  | (11)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9)
% 25.23/8.51  | (12)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_6_6 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 25.23/8.51  | (13)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 25.23/8.51  | (14)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 25.23/8.51  | (15)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 25.23/8.51  | (16) aScalar0(xP)
% 25.23/8.51  | (17)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4)
% 25.23/8.51  | (18)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0))
% 25.23/8.51  | (19) sdtasasdt0(xp, xp) = xC
% 25.23/8.51  | (20)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0))
% 25.23/8.51  | (21)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4))
% 25.23/8.51  | (22)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00)))
% 25.23/8.51  | (23) aScalar0(xH)
% 25.23/8.51  | (24)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0))
% 25.23/8.51  | (25) aDimensionOf0(xt) = all_0_5_5
% 25.23/8.51  | (26)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 25.23/8.51  | (27)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 25.23/8.51  | (28)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1))
% 25.23/8.51  | (29)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3)))
% 25.23/8.51  | (30) aNaturalNumber0(sz00)
% 25.23/8.51  | (31)  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 25.23/8.51  | (32)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 25.23/8.51  | (33)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 25.23/8.51  | (34)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0))
% 25.23/8.51  | (35) sdtlbdtrb0(xt, all_0_5_5) = xB
% 25.23/8.51  | (36) sdtlbdtrb0(xs, all_0_5_5) = xA
% 25.23/8.51  | (37)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 25.23/8.51  | (38) aScalar0(sz0z00)
% 25.23/8.51  | (39) aScalar0(xB)
% 25.23/8.51  | (40) sdtasdt0(xH, xH) = all_0_1_1
% 25.23/8.51  | (41) aVector0(xt)
% 25.23/8.52  | (42)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_6_6 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 25.23/8.52  | (43)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 25.23/8.52  | (44)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0))
% 25.23/8.52  | (45) sdtasdt0(xC, xD) = all_0_3_3
% 25.23/8.52  | (46) aScalar0(xD)
% 25.23/8.52  | (47)  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1))
% 25.23/8.52  | (48)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5))
% 25.23/8.52  | (49)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5))
% 25.23/8.52  | (50) aScalar0(xE)
% 25.23/8.52  | (51)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0))
% 25.23/8.52  | (52)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0))
% 25.23/8.52  | (53)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0))
% 25.23/8.52  | (54) aScalar0(xN)
% 25.23/8.52  | (55)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2))
% 25.23/8.52  | (56)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 25.23/8.52  | (57)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7))
% 25.23/8.52  | (58)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00)))
% 25.23/8.52  | (59)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4))
% 25.23/8.52  | (60)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11))
% 25.23/8.52  | (61)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, all_0_5_5) | sdtlseqdt0(v3, v8))))
% 25.23/8.52  | (62) sdtasdt0(xC, xG) = xR
% 25.23/8.52  | (63)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 25.23/8.52  | (64)  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 25.23/8.52  | (65) sdtasdt0(xA, xB) = xH
% 25.23/8.52  | (66) sdtasdt0(xF, xD) = xS
% 25.23/8.53  | (67)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 25.23/8.53  | (68)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 25.23/8.53  | (69)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, all_0_5_5) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7)))
% 25.23/8.53  | (70)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 25.23/8.53  | (71)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1))
% 25.23/8.53  | (72)  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0))
% 25.23/8.53  | (73)  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1))
% 25.23/8.53  | (74)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9))
% 25.23/8.53  | (75)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1))
% 25.23/8.53  | (76)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, all_0_5_5) | sdtlseqdt0(v8, v4))))
% 25.23/8.53  | (77) aScalar0(xC)
% 25.23/8.53  | (78) aVector0(xp)
% 25.23/8.53  | (79)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 25.23/8.53  | (80) sziznziztdt0(xt) = xq
% 25.23/8.53  | (81) aScalar0(xG)
% 25.23/8.53  | (82) sdtasdt0(xA, xA) = xF
% 25.23/8.53  | (83)  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2))))
% 25.23/8.53  | (84)  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 25.23/8.53  | (85) sdtasdt0(xP, xP) = all_0_2_2
% 25.23/8.53  | (86)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00)))
% 25.23/8.53  | (87)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 25.23/8.53  | (88)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00))))
% 25.23/8.54  | (89)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2))
% 25.23/8.54  | (90) sdtasdt0(xE, xE) = all_0_4_4
% 25.23/8.54  | (91) aVector0(xq)
% 25.23/8.54  | (92) sdtasdt0(all_0_1_1, all_0_4_4) = all_0_0_0
% 25.23/8.54  | (93) aDimensionOf0(xs) = all_0_5_5
% 25.23/8.54  | (94)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 25.23/8.54  | (95) sdtasasdt0(xp, xq) = xE
% 25.23/8.54  | (96)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 25.23/8.54  | (97) aScalar0(xA)
% 25.23/8.54  | (98)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3))
% 25.23/8.54  | (99)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 25.23/8.54  | (100)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2))
% 25.23/8.54  | (101)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5)))
% 25.23/8.54  | (102)  ~ (all_0_5_5 = sz00)
% 25.23/8.54  | (103)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 25.23/8.54  | (104) sdtasdt0(xR, xS) = xN
% 25.23/8.54  | (105) aScalar0(xS)
% 25.23/8.54  | (106)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4))
% 25.23/8.54  | (107)  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0))
% 25.23/8.54  | (108) sziznziztdt0(xs) = xp
% 25.23/8.54  | (109) aScalar0(xF)
% 25.23/8.54  | (110) sdtasasdt0(xq, xq) = xD
% 25.23/8.54  | (111)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0))
% 25.23/8.54  | (112)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00)
% 25.23/8.54  | (113)  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1))))))
% 25.23/8.54  | (114)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1))
% 25.23/8.54  | (115) sdtasdt0(xB, xB) = xG
% 25.23/8.54  | (116) smndt0(sz0z00) = all_0_6_6
% 25.23/8.54  | (117)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5))
% 25.23/8.54  | (118)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 25.23/8.54  | (119)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7))
% 25.23/8.54  | (120)  ~ (all_0_0_0 = all_0_2_2)
% 25.23/8.54  | (121)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 25.23/8.55  | (122)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 25.23/8.55  | (123)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1))
% 25.23/8.55  | (124) aScalar0(xR)
% 25.23/8.55  | (125)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3))
% 25.23/8.55  | (126)  ! [v0] :  ! [v1] : (all_0_6_6 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (76) with all_0_3_3, xD, xC, xq, xp and discharging atoms sdtasasdt0(xq, xq) = xD, sdtasasdt0(xp, xp) = xC, sdtasdt0(xC, xD) = all_0_3_3, aVector0(xq), aVector0(xp), yields:
% 25.23/8.55  | (127)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasasdt0(xp, xq) = v2 & aDimensionOf0(xq) = v1 & aDimensionOf0(xp) = v0 & sdtasdt0(v2, v2) = v3 & ( ~ (v1 = v0) |  ~ iLess0(v0, all_0_5_5) | sdtlseqdt0(v3, all_0_3_3)))
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (121) with all_0_2_2, xP, xP, xH, xE and discharging atoms sdtasdt0(xP, xP) = all_0_2_2, sdtasdt0(xE, xH) = xP, aScalar0(xP), aScalar0(xH), aScalar0(xE), yields:
% 25.23/8.55  | (128)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(xH, xP) = v3 & sdtasdt0(xH, xE) = xP & sdtasdt0(xE, v3) = all_0_2_2 & sdtpldt0(v0, xP) = v1 & sdtpldt0(xH, xP) = v2 & sdtpldt0(xH, xE) = v0 & sdtpldt0(xE, v2) = v1 & sdtpldt0(xE, xH) = v0)
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (122) with all_0_2_2, xP, xH, xE, xP and discharging atoms sdtasdt0(xP, xP) = all_0_2_2, sdtasdt0(xE, xH) = xP, aScalar0(xP), aScalar0(xH), aScalar0(xE), yields:
% 25.23/8.55  | (129)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(v3, xH) = all_0_2_2 & sdtasdt0(xP, xE) = v3 & sdtasdt0(xE, xP) = v3 & sdtpldt0(v0, xH) = v1 & sdtpldt0(xP, v2) = v1 & sdtpldt0(xP, xE) = v0 & sdtpldt0(xE, xP) = v0 & sdtpldt0(xE, xH) = v2)
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (99) with all_0_4_4, xE, xE and discharging atoms sdtasdt0(xE, xE) = all_0_4_4, aScalar0(xE), yields:
% 25.23/8.55  | (130) aScalar0(all_0_4_4)
% 25.23/8.55  |
% 25.23/8.55  | Instantiating (128) with all_15_0_11, all_15_1_12, all_15_2_13, all_15_3_14 yields:
% 25.23/8.55  | (131) sdtasdt0(xH, xP) = all_15_0_11 & sdtasdt0(xH, xE) = xP & sdtasdt0(xE, all_15_0_11) = all_0_2_2 & sdtpldt0(all_15_3_14, xP) = all_15_2_13 & sdtpldt0(xH, xP) = all_15_1_12 & sdtpldt0(xH, xE) = all_15_3_14 & sdtpldt0(xE, all_15_1_12) = all_15_2_13 & sdtpldt0(xE, xH) = all_15_3_14
% 25.23/8.55  |
% 25.23/8.55  | Applying alpha-rule on (131) yields:
% 25.23/8.55  | (132) sdtpldt0(xH, xP) = all_15_1_12
% 25.23/8.55  | (133) sdtpldt0(xE, xH) = all_15_3_14
% 25.23/8.55  | (134) sdtpldt0(xH, xE) = all_15_3_14
% 25.23/8.55  | (135) sdtasdt0(xH, xE) = xP
% 25.23/8.55  | (136) sdtpldt0(xE, all_15_1_12) = all_15_2_13
% 25.23/8.55  | (137) sdtasdt0(xH, xP) = all_15_0_11
% 25.23/8.55  | (138) sdtasdt0(xE, all_15_0_11) = all_0_2_2
% 25.23/8.55  | (139) sdtpldt0(all_15_3_14, xP) = all_15_2_13
% 25.23/8.55  |
% 25.23/8.55  | Instantiating (127) with all_21_0_26, all_21_1_27, all_21_2_28, all_21_3_29 yields:
% 25.23/8.55  | (140) sdtasasdt0(xp, xq) = all_21_1_27 & aDimensionOf0(xq) = all_21_2_28 & aDimensionOf0(xp) = all_21_3_29 & sdtasdt0(all_21_1_27, all_21_1_27) = all_21_0_26 & ( ~ (all_21_2_28 = all_21_3_29) |  ~ iLess0(all_21_3_29, all_0_5_5) | sdtlseqdt0(all_21_0_26, all_0_3_3))
% 25.23/8.55  |
% 25.23/8.55  | Applying alpha-rule on (140) yields:
% 25.23/8.55  | (141)  ~ (all_21_2_28 = all_21_3_29) |  ~ iLess0(all_21_3_29, all_0_5_5) | sdtlseqdt0(all_21_0_26, all_0_3_3)
% 25.23/8.55  | (142) aDimensionOf0(xq) = all_21_2_28
% 25.23/8.55  | (143) aDimensionOf0(xp) = all_21_3_29
% 25.23/8.55  | (144) sdtasdt0(all_21_1_27, all_21_1_27) = all_21_0_26
% 25.23/8.55  | (145) sdtasasdt0(xp, xq) = all_21_1_27
% 25.23/8.55  |
% 25.23/8.55  | Instantiating (129) with all_41_0_54, all_41_1_55, all_41_2_56, all_41_3_57 yields:
% 25.23/8.55  | (146) sdtasdt0(all_41_0_54, xH) = all_0_2_2 & sdtasdt0(xP, xE) = all_41_0_54 & sdtasdt0(xE, xP) = all_41_0_54 & sdtpldt0(all_41_3_57, xH) = all_41_2_56 & sdtpldt0(xP, all_41_1_55) = all_41_2_56 & sdtpldt0(xP, xE) = all_41_3_57 & sdtpldt0(xE, xP) = all_41_3_57 & sdtpldt0(xE, xH) = all_41_1_55
% 25.23/8.55  |
% 25.23/8.55  | Applying alpha-rule on (146) yields:
% 25.23/8.55  | (147) sdtpldt0(xE, xH) = all_41_1_55
% 25.23/8.55  | (148) sdtpldt0(all_41_3_57, xH) = all_41_2_56
% 25.23/8.55  | (149) sdtpldt0(xP, all_41_1_55) = all_41_2_56
% 25.23/8.55  | (150) sdtasdt0(xP, xE) = all_41_0_54
% 25.23/8.55  | (151) sdtasdt0(all_41_0_54, xH) = all_0_2_2
% 25.23/8.55  | (152) sdtpldt0(xP, xE) = all_41_3_57
% 25.23/8.55  | (153) sdtasdt0(xE, xP) = all_41_0_54
% 25.23/8.55  | (154) sdtpldt0(xE, xP) = all_41_3_57
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (18) with xp, xq, all_21_1_27, xE and discharging atoms sdtasasdt0(xp, xq) = all_21_1_27, sdtasasdt0(xp, xq) = xE, yields:
% 25.23/8.55  | (155) all_21_1_27 = xE
% 25.23/8.55  |
% 25.23/8.55  | From (155)(155) and (144) follows:
% 25.23/8.55  | (156) sdtasdt0(xE, xE) = all_21_0_26
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (53) with xE, xE, all_21_0_26, all_0_4_4 and discharging atoms sdtasdt0(xE, xE) = all_21_0_26, sdtasdt0(xE, xE) = all_0_4_4, yields:
% 25.23/8.55  | (157) all_21_0_26 = all_0_4_4
% 25.23/8.55  |
% 25.23/8.55  | From (157) and (156) follows:
% 25.23/8.55  | (90) sdtasdt0(xE, xE) = all_0_4_4
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (121) with all_0_2_2, xP, xP, xE, xH and discharging atoms sdtasdt0(xP, xP) = all_0_2_2, sdtasdt0(xH, xE) = xP, aScalar0(xP), aScalar0(xH), aScalar0(xE), yields:
% 25.23/8.55  | (159)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(xH, v3) = all_0_2_2 & sdtasdt0(xE, xP) = v3 & sdtasdt0(xE, xH) = xP & sdtpldt0(v0, xP) = v1 & sdtpldt0(xH, v2) = v1 & sdtpldt0(xH, xE) = v0 & sdtpldt0(xE, xP) = v2 & sdtpldt0(xE, xH) = v0)
% 25.23/8.55  |
% 25.23/8.55  | Instantiating formula (121) with all_41_0_54, xP, xE, xE, xH and discharging atoms sdtasdt0(xP, xE) = all_41_0_54, sdtasdt0(xH, xE) = xP, aScalar0(xH), aScalar0(xE), yields:
% 25.23/8.56  | (160)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(xH, v3) = all_41_0_54 & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = v3 & sdtpldt0(v0, xE) = v1 & sdtpldt0(xH, v2) = v1 & sdtpldt0(xH, xE) = v0 & sdtpldt0(xE, xH) = v0 & sdtpldt0(xE, xE) = v2)
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (122) with all_41_0_54, xP, xH, xE, xE and discharging atoms sdtasdt0(xE, xP) = all_41_0_54, sdtasdt0(xE, xH) = xP, aScalar0(xH), aScalar0(xE), yields:
% 25.23/8.56  | (161)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(v3, xH) = all_41_0_54 & sdtasdt0(xE, xE) = v3 & sdtpldt0(v0, xH) = v1 & sdtpldt0(xE, v2) = v1 & sdtpldt0(xE, xH) = v2 & sdtpldt0(xE, xE) = v0)
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (59) with all_15_2_13, all_15_3_14, xP, xE, xH and discharging atoms sdtpldt0(all_15_3_14, xP) = all_15_2_13, sdtpldt0(xH, xE) = all_15_3_14, aScalar0(xP), aScalar0(xH), aScalar0(xE), yields:
% 25.23/8.56  | (162)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(v1, xP) = v2 & sdtasdt0(xH, v3) = v2 & sdtasdt0(xH, xE) = v1 & sdtasdt0(xE, xP) = v3 & sdtasdt0(xE, xH) = v1 & sdtpldt0(xH, v0) = all_15_2_13 & sdtpldt0(xE, xP) = v0 & sdtpldt0(xE, xH) = all_15_3_14)
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (59) with all_41_2_56, all_41_3_57, xH, xP, xE and discharging atoms sdtpldt0(all_41_3_57, xH) = all_41_2_56, sdtpldt0(xE, xP) = all_41_3_57, aScalar0(xP), aScalar0(xH), aScalar0(xE), yields:
% 25.23/8.56  | (163)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(v1, xH) = v2 & sdtasdt0(xP, xH) = v3 & sdtasdt0(xP, xE) = v1 & sdtasdt0(xE, v3) = v2 & sdtasdt0(xE, xP) = v1 & sdtpldt0(xP, xH) = v0 & sdtpldt0(xP, xE) = all_41_3_57 & sdtpldt0(xE, v0) = all_41_2_56)
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (121) with all_0_0_0, all_0_1_1, all_0_4_4, xH, xH and discharging atoms sdtasdt0(all_0_1_1, all_0_4_4) = all_0_0_0, sdtasdt0(xH, xH) = all_0_1_1, aScalar0(all_0_4_4), aScalar0(xH), yields:
% 25.23/8.56  | (164)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(xH, v3) = all_0_0_0 & sdtasdt0(xH, all_0_4_4) = v3 & sdtpldt0(v0, all_0_4_4) = v1 & sdtpldt0(xH, v2) = v1 & sdtpldt0(xH, all_0_4_4) = v2 & sdtpldt0(xH, xH) = v0)
% 25.23/8.56  |
% 25.23/8.56  | Instantiating (162) with all_311_0_311, all_311_1_312, all_311_2_313, all_311_3_314 yields:
% 25.23/8.56  | (165) sdtasdt0(all_311_2_313, xP) = all_311_1_312 & sdtasdt0(xH, all_311_0_311) = all_311_1_312 & sdtasdt0(xH, xE) = all_311_2_313 & sdtasdt0(xE, xP) = all_311_0_311 & sdtasdt0(xE, xH) = all_311_2_313 & sdtpldt0(xH, all_311_3_314) = all_15_2_13 & sdtpldt0(xE, xP) = all_311_3_314 & sdtpldt0(xE, xH) = all_15_3_14
% 25.23/8.56  |
% 25.23/8.56  | Applying alpha-rule on (165) yields:
% 25.23/8.56  | (166) sdtasdt0(xE, xH) = all_311_2_313
% 25.23/8.56  | (167) sdtpldt0(xE, xP) = all_311_3_314
% 25.23/8.56  | (168) sdtasdt0(xE, xP) = all_311_0_311
% 25.23/8.56  | (133) sdtpldt0(xE, xH) = all_15_3_14
% 25.23/8.56  | (170) sdtasdt0(xH, xE) = all_311_2_313
% 25.23/8.56  | (171) sdtasdt0(xH, all_311_0_311) = all_311_1_312
% 25.23/8.56  | (172) sdtasdt0(all_311_2_313, xP) = all_311_1_312
% 25.23/8.56  | (173) sdtpldt0(xH, all_311_3_314) = all_15_2_13
% 25.23/8.56  |
% 25.23/8.56  | Instantiating (161) with all_341_0_361, all_341_1_362, all_341_2_363, all_341_3_364 yields:
% 25.23/8.56  | (174) sdtasdt0(all_341_0_361, xH) = all_41_0_54 & sdtasdt0(xE, xE) = all_341_0_361 & sdtpldt0(all_341_3_364, xH) = all_341_2_363 & sdtpldt0(xE, all_341_1_362) = all_341_2_363 & sdtpldt0(xE, xH) = all_341_1_362 & sdtpldt0(xE, xE) = all_341_3_364
% 25.23/8.56  |
% 25.23/8.56  | Applying alpha-rule on (174) yields:
% 25.23/8.56  | (175) sdtasdt0(all_341_0_361, xH) = all_41_0_54
% 25.23/8.56  | (176) sdtpldt0(xE, all_341_1_362) = all_341_2_363
% 25.23/8.56  | (177) sdtpldt0(xE, xH) = all_341_1_362
% 25.23/8.56  | (178) sdtpldt0(xE, xE) = all_341_3_364
% 25.23/8.56  | (179) sdtpldt0(all_341_3_364, xH) = all_341_2_363
% 25.23/8.56  | (180) sdtasdt0(xE, xE) = all_341_0_361
% 25.23/8.56  |
% 25.23/8.56  | Instantiating (160) with all_363_0_399, all_363_1_400, all_363_2_401, all_363_3_402 yields:
% 25.23/8.56  | (181) sdtasdt0(xH, all_363_0_399) = all_41_0_54 & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = all_363_0_399 & sdtpldt0(all_363_3_402, xE) = all_363_2_401 & sdtpldt0(xH, all_363_1_400) = all_363_2_401 & sdtpldt0(xH, xE) = all_363_3_402 & sdtpldt0(xE, xH) = all_363_3_402 & sdtpldt0(xE, xE) = all_363_1_400
% 25.23/8.56  |
% 25.23/8.56  | Applying alpha-rule on (181) yields:
% 25.23/8.56  | (8) sdtasdt0(xE, xH) = xP
% 25.23/8.56  | (183) sdtpldt0(xH, xE) = all_363_3_402
% 25.23/8.56  | (184) sdtasdt0(xH, all_363_0_399) = all_41_0_54
% 25.23/8.56  | (185) sdtpldt0(all_363_3_402, xE) = all_363_2_401
% 25.23/8.56  | (186) sdtpldt0(xE, xE) = all_363_1_400
% 25.23/8.56  | (187) sdtasdt0(xE, xE) = all_363_0_399
% 25.23/8.56  | (188) sdtpldt0(xE, xH) = all_363_3_402
% 25.23/8.56  | (189) sdtpldt0(xH, all_363_1_400) = all_363_2_401
% 25.23/8.56  |
% 25.23/8.56  | Instantiating (164) with all_373_0_421, all_373_1_422, all_373_2_423, all_373_3_424 yields:
% 25.23/8.56  | (190) sdtasdt0(xH, all_373_0_421) = all_0_0_0 & sdtasdt0(xH, all_0_4_4) = all_373_0_421 & sdtpldt0(all_373_3_424, all_0_4_4) = all_373_2_423 & sdtpldt0(xH, all_373_1_422) = all_373_2_423 & sdtpldt0(xH, all_0_4_4) = all_373_1_422 & sdtpldt0(xH, xH) = all_373_3_424
% 25.23/8.56  |
% 25.23/8.56  | Applying alpha-rule on (190) yields:
% 25.23/8.56  | (191) sdtpldt0(xH, all_0_4_4) = all_373_1_422
% 25.23/8.56  | (192) sdtpldt0(all_373_3_424, all_0_4_4) = all_373_2_423
% 25.23/8.56  | (193) sdtpldt0(xH, all_373_1_422) = all_373_2_423
% 25.23/8.56  | (194) sdtasdt0(xH, all_0_4_4) = all_373_0_421
% 25.23/8.56  | (195) sdtasdt0(xH, all_373_0_421) = all_0_0_0
% 25.23/8.56  | (196) sdtpldt0(xH, xH) = all_373_3_424
% 25.23/8.56  |
% 25.23/8.56  | Instantiating (159) with all_441_0_538, all_441_1_539, all_441_2_540, all_441_3_541 yields:
% 25.23/8.56  | (197) sdtasdt0(xH, all_441_0_538) = all_0_2_2 & sdtasdt0(xE, xP) = all_441_0_538 & sdtasdt0(xE, xH) = xP & sdtpldt0(all_441_3_541, xP) = all_441_2_540 & sdtpldt0(xH, all_441_1_539) = all_441_2_540 & sdtpldt0(xH, xE) = all_441_3_541 & sdtpldt0(xE, xP) = all_441_1_539 & sdtpldt0(xE, xH) = all_441_3_541
% 25.23/8.56  |
% 25.23/8.56  | Applying alpha-rule on (197) yields:
% 25.23/8.56  | (198) sdtpldt0(xE, xH) = all_441_3_541
% 25.23/8.56  | (8) sdtasdt0(xE, xH) = xP
% 25.23/8.56  | (200) sdtpldt0(all_441_3_541, xP) = all_441_2_540
% 25.23/8.56  | (201) sdtasdt0(xH, all_441_0_538) = all_0_2_2
% 25.23/8.56  | (202) sdtasdt0(xE, xP) = all_441_0_538
% 25.23/8.56  | (203) sdtpldt0(xE, xP) = all_441_1_539
% 25.23/8.56  | (204) sdtpldt0(xH, all_441_1_539) = all_441_2_540
% 25.23/8.56  | (205) sdtpldt0(xH, xE) = all_441_3_541
% 25.23/8.56  |
% 25.23/8.56  | Instantiating (163) with all_469_0_578, all_469_1_579, all_469_2_580, all_469_3_581 yields:
% 25.23/8.56  | (206) sdtasdt0(all_469_2_580, xH) = all_469_1_579 & sdtasdt0(xP, xH) = all_469_0_578 & sdtasdt0(xP, xE) = all_469_2_580 & sdtasdt0(xE, all_469_0_578) = all_469_1_579 & sdtasdt0(xE, xP) = all_469_2_580 & sdtpldt0(xP, xH) = all_469_3_581 & sdtpldt0(xP, xE) = all_41_3_57 & sdtpldt0(xE, all_469_3_581) = all_41_2_56
% 25.23/8.56  |
% 25.23/8.56  | Applying alpha-rule on (206) yields:
% 25.23/8.56  | (207) sdtasdt0(xE, all_469_0_578) = all_469_1_579
% 25.23/8.56  | (208) sdtasdt0(xE, xP) = all_469_2_580
% 25.23/8.56  | (209) sdtasdt0(xP, xH) = all_469_0_578
% 25.23/8.56  | (210) sdtasdt0(all_469_2_580, xH) = all_469_1_579
% 25.23/8.56  | (211) sdtpldt0(xE, all_469_3_581) = all_41_2_56
% 25.23/8.56  | (212) sdtasdt0(xP, xE) = all_469_2_580
% 25.23/8.56  | (213) sdtpldt0(xP, xH) = all_469_3_581
% 25.23/8.56  | (152) sdtpldt0(xP, xE) = all_41_3_57
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (53) with xE, xP, all_469_2_580, all_41_0_54 and discharging atoms sdtasdt0(xE, xP) = all_469_2_580, sdtasdt0(xE, xP) = all_41_0_54, yields:
% 25.23/8.56  | (215) all_469_2_580 = all_41_0_54
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (53) with xE, xP, all_441_0_538, all_469_2_580 and discharging atoms sdtasdt0(xE, xP) = all_469_2_580, sdtasdt0(xE, xP) = all_441_0_538, yields:
% 25.23/8.56  | (216) all_469_2_580 = all_441_0_538
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (53) with xE, xP, all_311_0_311, all_441_0_538 and discharging atoms sdtasdt0(xE, xP) = all_441_0_538, sdtasdt0(xE, xP) = all_311_0_311, yields:
% 25.23/8.56  | (217) all_441_0_538 = all_311_0_311
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (53) with xE, xE, all_363_0_399, all_0_4_4 and discharging atoms sdtasdt0(xE, xE) = all_363_0_399, sdtasdt0(xE, xE) = all_0_4_4, yields:
% 25.23/8.56  | (218) all_363_0_399 = all_0_4_4
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (53) with xE, xE, all_341_0_361, all_363_0_399 and discharging atoms sdtasdt0(xE, xE) = all_363_0_399, sdtasdt0(xE, xE) = all_341_0_361, yields:
% 25.23/8.56  | (219) all_363_0_399 = all_341_0_361
% 25.23/8.56  |
% 25.23/8.56  | Combining equations (216,215) yields a new equation:
% 25.23/8.56  | (220) all_441_0_538 = all_41_0_54
% 25.23/8.56  |
% 25.23/8.56  | Simplifying 220 yields:
% 25.23/8.56  | (221) all_441_0_538 = all_41_0_54
% 25.23/8.56  |
% 25.23/8.56  | Combining equations (221,217) yields a new equation:
% 25.23/8.56  | (222) all_311_0_311 = all_41_0_54
% 25.23/8.56  |
% 25.23/8.56  | Combining equations (218,219) yields a new equation:
% 25.23/8.56  | (223) all_341_0_361 = all_0_4_4
% 25.23/8.56  |
% 25.23/8.56  | Combining equations (223,219) yields a new equation:
% 25.23/8.56  | (218) all_363_0_399 = all_0_4_4
% 25.23/8.56  |
% 25.23/8.56  | Combining equations (222,217) yields a new equation:
% 25.23/8.56  | (221) all_441_0_538 = all_41_0_54
% 25.23/8.56  |
% 25.23/8.56  | From (221) and (201) follows:
% 25.23/8.56  | (226) sdtasdt0(xH, all_41_0_54) = all_0_2_2
% 25.23/8.56  |
% 25.23/8.56  | From (218) and (184) follows:
% 25.23/8.56  | (227) sdtasdt0(xH, all_0_4_4) = all_41_0_54
% 25.23/8.56  |
% 25.23/8.56  | From (222) and (171) follows:
% 25.23/8.56  | (228) sdtasdt0(xH, all_41_0_54) = all_311_1_312
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (53) with xH, all_41_0_54, all_0_2_2, all_311_1_312 and discharging atoms sdtasdt0(xH, all_41_0_54) = all_311_1_312, sdtasdt0(xH, all_41_0_54) = all_0_2_2, yields:
% 25.23/8.56  | (229) all_311_1_312 = all_0_2_2
% 25.23/8.56  |
% 25.23/8.56  | Instantiating formula (53) with xH, all_0_4_4, all_41_0_54, all_373_0_421 and discharging atoms sdtasdt0(xH, all_0_4_4) = all_373_0_421, sdtasdt0(xH, all_0_4_4) = all_41_0_54, yields:
% 25.23/8.56  | (230) all_373_0_421 = all_41_0_54
% 25.23/8.56  |
% 25.23/8.56  | From (230) and (195) follows:
% 25.23/8.57  | (231) sdtasdt0(xH, all_41_0_54) = all_0_0_0
% 25.23/8.57  |
% 25.23/8.57  | From (229) and (228) follows:
% 25.23/8.57  | (226) sdtasdt0(xH, all_41_0_54) = all_0_2_2
% 25.23/8.57  |
% 25.23/8.57  | Instantiating formula (53) with xH, all_41_0_54, all_0_0_0, all_0_2_2 and discharging atoms sdtasdt0(xH, all_41_0_54) = all_0_0_0, sdtasdt0(xH, all_41_0_54) = all_0_2_2, yields:
% 25.23/8.57  | (233) all_0_0_0 = all_0_2_2
% 25.23/8.57  |
% 25.23/8.57  | Equations (233) can reduce 120 to:
% 25.23/8.57  | (234) $false
% 25.23/8.57  |
% 25.23/8.57  |-The branch is then unsatisfiable
% 25.23/8.57  % SZS output end Proof for theBenchmark
% 25.23/8.57  
% 25.23/8.57  7991ms
%------------------------------------------------------------------------------