TSTP Solution File: RNG059+1 by ePrincess---1.0

View Problem - Process Solution

%------------------------------------------------------------------------------
% File     : ePrincess---1.0
% Problem  : RNG059+1 : TPTP v8.1.0. Released v4.0.0.
% Transfm  : none
% Format   : tptp:raw
% Command  : ePrincess-casc -timeout=%d %s

% Computer : n027.cluster.edu
% Model    : x86_64 x86_64
% CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 2.10GHz
% Memory   : 8042.1875MB
% OS       : Linux 3.10.0-693.el7.x86_64
% CPULimit : 300s
% WCLimit  : 600s
% DateTime : Mon Jul 18 20:25:13 EDT 2022

% Result   : Theorem 13.11s 4.37s
% Output   : Proof 31.54s
% Verified : 
% SZS Type : -

% Comments : 
%------------------------------------------------------------------------------
%----WARNING: Could not form TPTP format derivation
%------------------------------------------------------------------------------
%----ORIGINAL SYSTEM OUTPUT
% 0.06/0.11  % Problem  : RNG059+1 : TPTP v8.1.0. Released v4.0.0.
% 0.06/0.12  % Command  : ePrincess-casc -timeout=%d %s
% 0.12/0.33  % Computer : n027.cluster.edu
% 0.12/0.33  % Model    : x86_64 x86_64
% 0.12/0.33  % CPU      : Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz
% 0.12/0.33  % Memory   : 8042.1875MB
% 0.12/0.33  % OS       : Linux 3.10.0-693.el7.x86_64
% 0.12/0.33  % CPULimit : 300
% 0.12/0.33  % WCLimit  : 600
% 0.12/0.33  % DateTime : Mon May 30 18:53:31 EDT 2022
% 0.12/0.33  % CPUTime  : 
% 0.50/0.56          ____       _                          
% 0.50/0.56    ___  / __ \_____(_)___  ________  __________
% 0.50/0.56   / _ \/ /_/ / ___/ / __ \/ ___/ _ \/ ___/ ___/
% 0.50/0.56  /  __/ ____/ /  / / / / / /__/  __(__  |__  ) 
% 0.50/0.56  \___/_/   /_/  /_/_/ /_/\___/\___/____/____/  
% 0.50/0.56  
% 0.50/0.56  A Theorem Prover for First-Order Logic
% 0.50/0.56  (ePrincess v.1.0)
% 0.50/0.56  
% 0.50/0.56  (c) Philipp Rümmer, 2009-2015
% 0.50/0.56  (c) Peter Backeman, 2014-2015
% 0.50/0.56  (contributions by Angelo Brillout, Peter Baumgartner)
% 0.50/0.56  Free software under GNU Lesser General Public License (LGPL).
% 0.50/0.56  Bug reports to peter@backeman.se
% 0.50/0.56  
% 0.50/0.56  For more information, visit http://user.uu.se/~petba168/breu/
% 0.50/0.56  
% 0.50/0.56  Loading /export/starexec/sandbox2/benchmark/theBenchmark.p ...
% 0.50/0.61  Prover 0: Options:  -triggersInConjecture -genTotalityAxioms -tightFunctionScopes -clausifier=simple -reverseFunctionalityPropagation +boolFunsAsPreds -triggerStrategy=allMaximal -resolutionMethod=nonUnifying +ignoreQuantifiers -generateTriggers=all
% 1.82/0.95  Prover 0: Preprocessing ...
% 3.75/1.46  Prover 0: Constructing countermodel ...
% 13.11/4.37  Prover 0: proved (3759ms)
% 13.11/4.37  
% 13.11/4.37  No countermodel exists, formula is valid
% 13.11/4.37  % SZS status Theorem for theBenchmark
% 13.11/4.37  
% 13.11/4.37  Generating proof ... found it (size 69)
% 30.71/11.04  
% 30.71/11.04  % SZS output start Proof for theBenchmark
% 30.71/11.04  Assumed formulas after preprocessing and simplification: 
% 30.71/11.04  | (0)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : ( ~ (v7 = v6) &  ~ (v1 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, v1) = xB & sdtlbdtrb0(xs, v1) = xA & aDimensionOf0(xt) = v1 & aDimensionOf0(xs) = v1 & smndt0(xN) = v7 & smndt0(xS) = v5 & smndt0(sz0z00) = v0 & sdtasdt0(v5, xR) = v6 & sdtasdt0(xP, xP) = v4 & sdtasdt0(xR, xS) = xN & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = v2 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = v3 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(v4, xN) & sdtlseqdt0(v2, v3) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] :  ! [v16] :  ! [v17] :  ! [v18] : ( ~ (sdtasdt0(v9, v11) = v16) |  ~ (sdtasdt0(v9, v10) = v15) |  ~ (sdtasdt0(v8, v11) = v13) |  ~ (sdtasdt0(v8, v10) = v12) |  ~ (sdtpldt0(v15, v16) = v17) |  ~ (sdtpldt0(v14, v17) = v18) |  ~ (sdtpldt0(v12, v13) = v14) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v19] :  ? [v20] : (sdtasdt0(v19, v20) = v18 & sdtpldt0(v10, v11) = v20 & sdtpldt0(v8, v9) = v19)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] :  ! [v15] :  ! [v16] :  ! [v17] : (v10 = sz00 |  ~ (sdtasasdt0(v11, v12) = v13) |  ~ (sziznziztdt0(v9) = v12) |  ~ (sziznziztdt0(v8) = v11) |  ~ (sdtlbdtrb0(v9, v10) = v15) |  ~ (sdtlbdtrb0(v8, v10) = v14) |  ~ (aDimensionOf0(v9) = v10) |  ~ (aDimensionOf0(v8) = v10) |  ~ (sdtasdt0(v14, v15) = v16) |  ~ (sdtpldt0(v13, v16) = v17) |  ~ aVector0(v9) |  ~ aVector0(v8) | sdtasasdt0(v8, v9) = v17) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] :  ! [v14] : ( ~ (sdtasdt0(v12, v13) = v14) |  ~ (sdtpldt0(v10, v11) = v13) |  ~ (sdtpldt0(v8, v9) = v12) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] :  ? [v20] : (sdtasdt0(v9, v11) = v19 & sdtasdt0(v9, v10) = v18 & sdtasdt0(v8, v11) = v16 & sdtasdt0(v8, v10) = v15 & sdtpldt0(v18, v19) = v20 & sdtpldt0(v17, v20) = v14 & sdtpldt0(v15, v16) = v17)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtasdt0(v9, v11) = v13) |  ~ (sdtasdt0(v8, v10) = v12) |  ~ sdtlseqdt0(v10, v11) |  ~ sdtlseqdt0(v8, v9) |  ~ sdtlseqdt0(sz0z00, v10) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | sdtlseqdt0(v12, v13)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtasdt0(v9, v10) = v12) |  ~ (sdtasdt0(v8, v10) = v11) |  ~ (sdtpldt0(v11, v12) = v13) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sdtasdt0(v17, v10) = v13 & sdtasdt0(v8, v14) = v15 & sdtasdt0(v8, v9) = v16 & sdtpldt0(v16, v11) = v15 & sdtpldt0(v9, v10) = v14 & sdtpldt0(v8, v9) = v17)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtasdt0(v8, v10) = v12) |  ~ (sdtasdt0(v8, v9) = v11) |  ~ (sdtpldt0(v11, v12) = v13) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sdtasdt0(v15, v10) = v16 & sdtasdt0(v9, v10) = v17 & sdtasdt0(v8, v14) = v13 & sdtpldt0(v12, v17) = v16 & sdtpldt0(v9, v10) = v14 & sdtpldt0(v8, v9) = v15)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtpldt0(v9, v11) = v13) |  ~ (sdtpldt0(v8, v10) = v12) |  ~ sdtlseqdt0(v10, v11) |  ~ sdtlseqdt0(v8, v9) |  ~ aScalar0(v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | sdtlseqdt0(v12, v13)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasasdt0(v9, v9) = v11) |  ~ (sdtasasdt0(v8, v8) = v10) |  ~ (sdtasdt0(v10, v11) = v12) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasasdt0(v8, v9) = v15 & aDimensionOf0(v9) = v14 & aDimensionOf0(v8) = v13 & sdtasdt0(v15, v15) = v16 & ( ~ (v14 = v13) |  ~ iLess0(v13, v1) | sdtlseqdt0(v16, v12)))) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (smndt0(v9) = v11) |  ~ (smndt0(v8) = v10) |  ~ (sdtasdt0(v10, v11) = v12) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | sdtasdt0(v8, v9) = v12) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v11, v10) = v12) |  ~ (sdtasdt0(v8, v9) = v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v9, v10) = v16 & sdtasdt0(v9, v8) = v11 & sdtasdt0(v8, v16) = v12 & sdtpldt0(v13, v10) = v14 & sdtpldt0(v9, v10) = v15 & sdtpldt0(v9, v8) = v13 & sdtpldt0(v8, v15) = v14 & sdtpldt0(v8, v9) = v13)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v11, v10) = v12) |  ~ (sdtpldt0(v8, v9) = v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sdtasdt0(v9, v10) = v17 & sdtasdt0(v8, v13) = v14 & sdtasdt0(v8, v10) = v16 & sdtasdt0(v8, v9) = v15 & sdtpldt0(v16, v17) = v12 & sdtpldt0(v15, v16) = v14 & sdtpldt0(v9, v10) = v13)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v9, v10) = v11) |  ~ (sdtasdt0(v8, v11) = v12) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v16, v10) = v12 & sdtasdt0(v9, v8) = v16 & sdtasdt0(v8, v9) = v16 & sdtpldt0(v13, v10) = v14 & sdtpldt0(v9, v10) = v15 & sdtpldt0(v9, v8) = v13 & sdtpldt0(v8, v15) = v14 & sdtpldt0(v8, v9) = v13)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtasdt0(v8, v11) = v12) |  ~ (sdtpldt0(v9, v10) = v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sdtasdt0(v15, v10) = v16 & sdtasdt0(v9, v10) = v17 & sdtasdt0(v8, v10) = v14 & sdtasdt0(v8, v9) = v13 & sdtpldt0(v14, v17) = v16 & sdtpldt0(v13, v14) = v12 & sdtpldt0(v8, v9) = v15)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtpldt0(v11, v10) = v12) |  ~ (sdtpldt0(v8, v9) = v11) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v14, v10) = v15 & sdtasdt0(v9, v10) = v16 & sdtasdt0(v9, v8) = v14 & sdtasdt0(v8, v16) = v15 & sdtasdt0(v8, v9) = v14 & sdtpldt0(v9, v10) = v13 & sdtpldt0(v9, v8) = v11 & sdtpldt0(v8, v13) = v12)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] :  ! [v12] : ( ~ (sdtpldt0(v9, v10) = v11) |  ~ (sdtpldt0(v8, v11) = v12) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasdt0(v14, v10) = v15 & sdtasdt0(v9, v10) = v16 & sdtasdt0(v9, v8) = v14 & sdtasdt0(v8, v16) = v15 & sdtasdt0(v8, v9) = v14 & sdtpldt0(v13, v10) = v12 & sdtpldt0(v9, v8) = v13 & sdtpldt0(v8, v9) = v13)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : (v10 = sz00 |  ~ (sziznziztdt0(v8) = v11) |  ~ (aDimensionOf0(v9) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sziznziztdt0(v9) = v14 & aDimensionOf0(v14) = v15 & aDimensionOf0(v11) = v13 & aDimensionOf0(v8) = v12 & ( ~ (v12 = v10) | v15 = v13))) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : (v9 = v8 |  ~ (sdtasasdt0(v11, v10) = v9) |  ~ (sdtasasdt0(v11, v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : (v9 = v8 |  ~ (sdtlbdtrb0(v11, v10) = v9) |  ~ (sdtlbdtrb0(v11, v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : (v9 = v8 |  ~ (sdtasdt0(v11, v10) = v9) |  ~ (sdtasdt0(v11, v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : (v9 = v8 |  ~ (sdtpldt0(v11, v10) = v9) |  ~ (sdtpldt0(v11, v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sdtasasdt0(v8, v9) = v10) |  ~ (sdtasdt0(v10, v10) = v11) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] : (sdtasasdt0(v9, v9) = v15 & sdtasasdt0(v8, v8) = v14 & aDimensionOf0(v9) = v13 & aDimensionOf0(v8) = v12 & sdtasdt0(v14, v15) = v16 & ( ~ (v13 = v12) |  ~ iLess0(v12, v1) | sdtlseqdt0(v11, v16)))) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sziznziztdt0(v9) = v11) |  ~ (sziznziztdt0(v8) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (aDimensionOf0(v11) = v15 & aDimensionOf0(v10) = v14 & aDimensionOf0(v9) = v13 & aDimensionOf0(v8) = v12 & ( ~ (v13 = v12) | v15 = v14 | v12 = sz00))) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (sziznziztdt0(v9) = v11) |  ~ (aDimensionOf0(v8) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sziznziztdt0(v8) = v13 & aDimensionOf0(v13) = v14 & aDimensionOf0(v11) = v15 & aDimensionOf0(v9) = v12 & ( ~ (v12 = v10) | v15 = v14 | v10 = sz00))) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (smndt0(v9) = v10) |  ~ (sdtasdt0(v8, v10) = v11) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v12] :  ? [v13] : (smndt0(v12) = v11 & smndt0(v8) = v13 & sdtasdt0(v13, v9) = v11 & sdtasdt0(v8, v9) = v12)) &  ! [v8] :  ! [v9] :  ! [v10] :  ! [v11] : ( ~ (smndt0(v8) = v10) |  ~ (sdtasdt0(v10, v9) = v11) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v12] :  ? [v13] : (smndt0(v13) = v11 & smndt0(v9) = v12 & sdtasdt0(v8, v12) = v11 & sdtasdt0(v8, v9) = v13)) &  ! [v8] :  ! [v9] :  ! [v10] : (v10 = sz0z00 |  ~ (sdtasasdt0(v8, v9) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v11] :  ? [v12] : (aDimensionOf0(v9) = v12 & aDimensionOf0(v8) = v11 & ( ~ (v12 = sz00) |  ~ (v11 = sz00)))) &  ! [v8] :  ! [v9] :  ! [v10] : (v10 = sz0z00 |  ~ (smndt0(v8) = v9) |  ~ (sdtpldt0(v9, v8) = v10) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v10 = sz0z00 |  ~ (smndt0(v8) = v9) |  ~ (sdtpldt0(v8, v9) = v10) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v10 = sz00 |  ~ (aDimensionOf0(v9) = v10) |  ~ (aDimensionOf0(v8) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] : (sdtasasdt0(v12, v13) = v14 & sdtasasdt0(v8, v9) = v11 & sziznziztdt0(v9) = v13 & sziznziztdt0(v8) = v12 & sdtlbdtrb0(v9, v10) = v16 & sdtlbdtrb0(v8, v10) = v15 & sdtasdt0(v15, v16) = v17 & sdtpldt0(v14, v17) = v11)) &  ! [v8] :  ! [v9] :  ! [v10] : (v10 = sz00 |  ~ (aDimensionOf0(v9) = v10) |  ~ (aDimensionOf0(v8) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v11] :  ? [v12] :  ? [v13] : (sziznziztdt0(v9) = v13 & sziznziztdt0(v8) = v11 & aDimensionOf0(v13) = v12 & aDimensionOf0(v11) = v12)) &  ! [v8] :  ! [v9] :  ! [v10] : (v9 = v8 |  ~ (sziznziztdt0(v10) = v9) |  ~ (sziznziztdt0(v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v9 = v8 |  ~ (aDimensionOf0(v10) = v9) |  ~ (aDimensionOf0(v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v9 = v8 |  ~ (smndt0(v10) = v9) |  ~ (smndt0(v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v9 = v8 |  ~ (sdtasdt0(v9, v9) = v10) |  ~ (sdtasdt0(v8, v8) = v10) |  ~ sdtlseqdt0(sz0z00, v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ aScalar0(v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v9 = v8 |  ~ (szszuzczcdt0(v10) = v9) |  ~ (szszuzczcdt0(v10) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v9 = v8 |  ~ (szszuzczcdt0(v9) = v10) |  ~ (szszuzczcdt0(v8) = v10) |  ~ aNaturalNumber0(v9) |  ~ aNaturalNumber0(v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v0 = sz0z00 |  ~ (smndt0(v8) = v9) |  ~ (sdtpldt0(v9, v8) = v10) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] :  ! [v10] : (v0 = sz0z00 |  ~ (smndt0(v8) = v9) |  ~ (sdtpldt0(v8, v9) = v10) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasasdt0(v8, v9) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) | aScalar0(v10) |  ? [v11] :  ? [v12] : ( ~ (v12 = v11) & aDimensionOf0(v9) = v12 & aDimensionOf0(v8) = v11)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasasdt0(v8, v9) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] :  ? [v16] :  ? [v17] :  ? [v18] :  ? [v19] : (sdtasasdt0(v13, v14) = v15 & sziznziztdt0(v9) = v14 & sziznziztdt0(v8) = v13 & sdtlbdtrb0(v9, v12) = v17 & sdtlbdtrb0(v8, v11) = v16 & aDimensionOf0(v9) = v12 & aDimensionOf0(v8) = v11 & sdtasdt0(v16, v17) = v18 & sdtpldt0(v15, v18) = v19 & ( ~ (v12 = v11) | v19 = v10 | v11 = sz00))) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtlbdtrb0(v8, v9) = v10) |  ~ aVector0(v8) |  ~ aNaturalNumber0(v9) | aScalar0(v10)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (aDimensionOf0(v9) = v10) |  ~ (aDimensionOf0(v8) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ~ iLess0(v10, v1) |  ? [v11] :  ? [v12] :  ? [v13] :  ? [v14] :  ? [v15] : (sdtasasdt0(v9, v9) = v14 & sdtasasdt0(v8, v9) = v11 & sdtasasdt0(v8, v8) = v13 & sdtasdt0(v13, v14) = v15 & sdtasdt0(v11, v11) = v12 & sdtlseqdt0(v12, v15))) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (aDimensionOf0(v9) = v10) |  ~ (aDimensionOf0(v8) = v10) |  ~ aVector0(v9) |  ~ aVector0(v8) |  ? [v11] : (sdtasasdt0(v8, v9) = v11 & aScalar0(v11))) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (smndt0(v8) = v9) |  ~ (sdtpldt0(v9, v8) = v10) |  ~ aScalar0(v8) | (smndt0(v9) = v8 & sdtasdt0(v8, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v8) = sz0z00 & sdtpldt0(v8, v9) = sz0z00 & sdtpldt0(v8, sz0z00) = v8 & sdtpldt0(sz0z00, v8) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (smndt0(v8) = v9) |  ~ (sdtpldt0(v8, v9) = v10) |  ~ aScalar0(v8) | (smndt0(v9) = v8 & sdtasdt0(v8, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v8) = sz0z00 & sdtpldt0(v9, v8) = sz0z00 & sdtpldt0(v8, sz0z00) = v8 & sdtpldt0(sz0z00, v8) = v8)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v8, v9) = v10) |  ~ sdtlseqdt0(sz0z00, v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | sdtlseqdt0(sz0z00, v10)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v8, v9) = v10) |  ~ sdtlseqdt0(sz0z00, v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v11] : (sdtpldt0(v8, v9) = v11 & sdtlseqdt0(sz0z00, v11))) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v8, v9) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | aScalar0(v10)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v8, v9) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v11] :  ? [v12] :  ? [v13] : (smndt0(v10) = v12 & smndt0(v9) = v11 & smndt0(v8) = v13 & sdtasdt0(v13, v9) = v12 & sdtasdt0(v8, v11) = v12)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v8, v9) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v11] :  ? [v12] : (smndt0(v9) = v12 & smndt0(v8) = v11 & sdtasdt0(v11, v12) = v10)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtpldt0(v8, v9) = v10) |  ~ sdtlseqdt0(sz0z00, v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | sdtlseqdt0(sz0z00, v10)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtpldt0(v8, v9) = v10) |  ~ sdtlseqdt0(sz0z00, v9) |  ~ sdtlseqdt0(sz0z00, v8) |  ~ aScalar0(v9) |  ~ aScalar0(v8) |  ? [v11] : (sdtasdt0(v8, v9) = v11 & sdtlseqdt0(sz0z00, v11))) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtpldt0(v8, v9) = v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | aScalar0(v10)) &  ! [v8] :  ! [v9] :  ! [v10] : ( ~ sdtlseqdt0(v9, v10) |  ~ sdtlseqdt0(v8, v9) |  ~ aScalar0(v10) |  ~ aScalar0(v9) |  ~ aScalar0(v8) | sdtlseqdt0(v8, v10)) &  ! [v8] :  ! [v9] : (v9 = v8 |  ~ (sdtpldt0(v8, sz0z00) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v9 = v8 |  ~ (sdtpldt0(sz0z00, v8) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v9 = v8 |  ~ sdtlseqdt0(v9, v8) |  ~ sdtlseqdt0(v8, v9) |  ~ aScalar0(v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v9 = sz0z00 |  ~ (sdtasdt0(v8, sz0z00) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v9 = sz0z00 |  ~ (sdtasdt0(sz0z00, v8) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v9 = sz00 |  ~ (aDimensionOf0(v8) = v9) |  ~ aVector0(v8) |  ? [v10] : (sziznziztdt0(v8) = v10 &  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtlbdtrb0(v10, v12) = v13) |  ~ (aDimensionOf0(v10) = v11) |  ~ aNaturalNumber0(v12) | sdtlbdtrb0(v8, v12) = v13) &  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtlbdtrb0(v8, v12) = v13) |  ~ (aDimensionOf0(v10) = v11) |  ~ aNaturalNumber0(v12) | sdtlbdtrb0(v10, v12) = v13) &  ! [v11] :  ! [v12] : (v11 = v10 |  ~ (aDimensionOf0(v11) = v12) |  ~ aVector0(v11) |  ? [v13] :  ? [v14] :  ? [v15] : (( ~ (v15 = v14) & sdtlbdtrb0(v11, v13) = v14 & sdtlbdtrb0(v8, v13) = v15 & aNaturalNumber0(v13)) | ( ~ (v13 = v9) & szszuzczcdt0(v12) = v13))) &  ! [v11] : ( ~ (aDimensionOf0(v10) = v11) | szszuzczcdt0(v11) = v9) &  ! [v11] : ( ~ (aDimensionOf0(v10) = v11) | aVector0(v10)))) &  ! [v8] :  ! [v9] : (v0 = sz0z00 |  ~ (smndt0(v8) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v0 = sz0z00 |  ~ (sdtasdt0(v8, sz0z00) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v0 = sz0z00 |  ~ (sdtasdt0(sz0z00, v8) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v0 = sz0z00 |  ~ (sdtpldt0(v8, sz0z00) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : (v0 = sz0z00 |  ~ (sdtpldt0(sz0z00, v8) = v9) |  ~ aScalar0(v8)) &  ! [v8] :  ! [v9] : ( ~ (sdtasasdt0(v8, v8) = v9) |  ~ aVector0(v8) | sdtlseqdt0(sz0z00, v9)) &  ! [v8] :  ! [v9] : ( ~ (sziznziztdt0(v8) = v9) |  ~ aVector0(v8) |  ? [v10] : (aDimensionOf0(v8) = v10 & (v10 = sz00 | ( ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtlbdtrb0(v9, v12) = v13) |  ~ (aDimensionOf0(v9) = v11) |  ~ aNaturalNumber0(v12) | sdtlbdtrb0(v8, v12) = v13) &  ! [v11] :  ! [v12] :  ! [v13] : ( ~ (sdtlbdtrb0(v8, v12) = v13) |  ~ (aDimensionOf0(v9) = v11) |  ~ aNaturalNumber0(v12) | sdtlbdtrb0(v9, v12) = v13) &  ! [v11] :  ! [v12] : (v11 = v9 |  ~ (aDimensionOf0(v11) = v12) |  ~ aVector0(v11) |  ? [v13] :  ? [v14] :  ? [v15] : (( ~ (v15 = v14) & sdtlbdtrb0(v11, v13) = v14 & sdtlbdtrb0(v8, v13) = v15 & aNaturalNumber0(v13)) | ( ~ (v13 = v10) & szszuzczcdt0(v12) = v13))) &  ! [v11] : ( ~ (aDimensionOf0(v9) = v11) | szszuzczcdt0(v11) = v10) &  ! [v11] : ( ~ (aDimensionOf0(v9) = v11) | aVector0(v9)))))) &  ! [v8] :  ! [v9] : ( ~ (aDimensionOf0(v9) = sz00) |  ~ (aDimensionOf0(v8) = sz00) |  ~ aVector0(v9) |  ~ aVector0(v8) | sdtasasdt0(v8, v9) = sz0z00) &  ! [v8] :  ! [v9] : ( ~ (aDimensionOf0(v8) = v9) |  ~ aVector0(v8) | aNaturalNumber0(v9)) &  ! [v8] :  ! [v9] : ( ~ (smndt0(v8) = v9) |  ~ aScalar0(v8) | aScalar0(v9)) &  ! [v8] :  ! [v9] : ( ~ (smndt0(v8) = v9) |  ~ aScalar0(v8) | (smndt0(v9) = v8 & sdtasdt0(v8, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v8) = sz0z00 & sdtpldt0(v9, v8) = sz0z00 & sdtpldt0(v8, v9) = sz0z00 & sdtpldt0(v8, sz0z00) = v8 & sdtpldt0(sz0z00, v8) = v8)) &  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(v8, v8) = v9) |  ~ aScalar0(v8) | sdtlseqdt0(sz0z00, v9)) &  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(v8, sz0z00) = v9) |  ~ aScalar0(v8) |  ? [v10] : (smndt0(v10) = v8 & smndt0(v8) = v10 & sdtasdt0(sz0z00, v8) = sz0z00 & sdtpldt0(v10, v8) = sz0z00 & sdtpldt0(v8, v10) = sz0z00 & sdtpldt0(v8, sz0z00) = v8 & sdtpldt0(sz0z00, v8) = v8)) &  ! [v8] :  ! [v9] : ( ~ (sdtasdt0(sz0z00, v8) = v9) |  ~ aScalar0(v8) |  ? [v10] : (smndt0(v10) = v8 & smndt0(v8) = v10 & sdtasdt0(v8, sz0z00) = sz0z00 & sdtpldt0(v10, v8) = sz0z00 & sdtpldt0(v8, v10) = sz0z00 & sdtpldt0(v8, sz0z00) = v8 & sdtpldt0(sz0z00, v8) = v8)) &  ! [v8] :  ! [v9] : ( ~ (sdtpldt0(v8, sz0z00) = v9) |  ~ aScalar0(v8) |  ? [v10] : (smndt0(v10) = v8 & smndt0(v8) = v10 & sdtasdt0(v8, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v8) = sz0z00 & sdtpldt0(v10, v8) = sz0z00 & sdtpldt0(v8, v10) = sz0z00 & sdtpldt0(sz0z00, v8) = v8)) &  ! [v8] :  ! [v9] : ( ~ (sdtpldt0(sz0z00, v8) = v9) |  ~ aScalar0(v8) |  ? [v10] : (smndt0(v10) = v8 & smndt0(v8) = v10 & sdtasdt0(v8, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v8) = sz0z00 & sdtpldt0(v10, v8) = sz0z00 & sdtpldt0(v8, v10) = sz0z00 & sdtpldt0(v8, sz0z00) = v8)) &  ! [v8] :  ! [v9] : ( ~ (szszuzczcdt0(v8) = v9) |  ~ aNaturalNumber0(v8) | iLess0(v8, v9)) &  ! [v8] :  ! [v9] : ( ~ (szszuzczcdt0(v8) = v9) |  ~ aNaturalNumber0(v8) | aNaturalNumber0(v9)) &  ! [v8] :  ! [v9] : ( ~ aScalar0(v9) |  ~ aScalar0(v8) | sdtlseqdt0(v9, v8) | sdtlseqdt0(v8, v9)) &  ! [v8] : (v8 = sz00 |  ~ aNaturalNumber0(v8) |  ? [v9] : (szszuzczcdt0(v9) = v8 & aNaturalNumber0(v9))) &  ! [v8] : ( ~ (szszuzczcdt0(v8) = sz00) |  ~ aNaturalNumber0(v8)) &  ! [v8] : ( ~ aScalar0(v8) | sdtlseqdt0(v8, v8)))
% 31.16/11.12  | Instantiating (0) with all_0_0_0, all_0_1_1, all_0_2_2, all_0_3_3, all_0_4_4, all_0_5_5, all_0_6_6, all_0_7_7 yields:
% 31.16/11.12  | (1)  ~ (all_0_0_0 = all_0_1_1) &  ~ (all_0_6_6 = sz00) & sdtasasdt0(xq, xq) = xD & sdtasasdt0(xp, xq) = xE & sdtasasdt0(xp, xp) = xC & sziznziztdt0(xt) = xq & sziznziztdt0(xs) = xp & sdtlbdtrb0(xt, all_0_6_6) = xB & sdtlbdtrb0(xs, all_0_6_6) = xA & aDimensionOf0(xt) = all_0_6_6 & aDimensionOf0(xs) = all_0_6_6 & smndt0(xN) = all_0_0_0 & smndt0(xS) = all_0_2_2 & smndt0(sz0z00) = all_0_7_7 & sdtasdt0(all_0_2_2, xR) = all_0_1_1 & sdtasdt0(xP, xP) = all_0_3_3 & sdtasdt0(xR, xS) = xN & sdtasdt0(xF, xD) = xS & sdtasdt0(xE, xH) = xP & sdtasdt0(xE, xE) = all_0_5_5 & sdtasdt0(xC, xG) = xR & sdtasdt0(xC, xD) = all_0_4_4 & sdtasdt0(xB, xB) = xG & sdtasdt0(xA, xB) = xH & sdtasdt0(xA, xA) = xF & aVector0(xq) & aVector0(xp) & aVector0(xt) & aVector0(xs) & sdtlseqdt0(all_0_3_3, xN) & sdtlseqdt0(all_0_5_5, all_0_4_4) & aScalar0(xN) & aScalar0(xS) & aScalar0(xP) & aScalar0(xR) & aScalar0(xH) & aScalar0(xG) & aScalar0(xF) & aScalar0(xE) & aScalar0(xD) & aScalar0(xC) & aScalar0(xB) & aScalar0(xA) & aScalar0(sz0z00) & aNaturalNumber0(sz00) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, all_0_6_6) | sdtlseqdt0(v8, v4)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, all_0_6_6) | sdtlseqdt0(v3, v8)))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00)))) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_7_7 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : (all_0_7_7 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, all_0_6_6) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3))) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2)) &  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2)))) &  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1)))))) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00) &  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1)) &  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0)) &  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1)) &  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1)) &  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1)) &  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1))) &  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0)) &  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 31.16/11.15  |
% 31.16/11.15  | Applying alpha-rule on (1) yields:
% 31.16/11.15  | (2)  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 31.16/11.15  | (3)  ~ (all_0_0_0 = all_0_1_1)
% 31.16/11.15  | (4)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 31.16/11.15  | (5) aScalar0(xC)
% 31.16/11.15  | (6) sdtlbdtrb0(xt, all_0_6_6) = xB
% 31.16/11.15  | (7)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v1, v2) = v3) |  ~ (sdtasdt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v8, v2) = v4 & sdtasdt0(v1, v0) = v8 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 31.16/11.15  | (8)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.16/11.15  | (9)  ! [v0] : ( ~ (szszuzczcdt0(v0) = sz00) |  ~ aNaturalNumber0(v0))
% 31.16/11.15  | (10)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] : (v2 = sz00 |  ~ (sdtasasdt0(v3, v4) = v5) |  ~ (sziznziztdt0(v1) = v4) |  ~ (sziznziztdt0(v0) = v3) |  ~ (sdtlbdtrb0(v1, v2) = v7) |  ~ (sdtlbdtrb0(v0, v2) = v6) |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ (sdtasdt0(v6, v7) = v8) |  ~ (sdtpldt0(v5, v8) = v9) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = v9)
% 31.16/11.15  | (11) sdtasdt0(all_0_2_2, xR) = all_0_1_1
% 31.16/11.15  | (12)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v0, v3) = v4) |  ~ (sdtpldt0(v1, v2) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v2) = v6 & sdtasdt0(v0, v1) = v5 & sdtpldt0(v6, v9) = v8 & sdtpldt0(v5, v6) = v4 & sdtpldt0(v0, v1) = v7))
% 31.16/11.15  | (13)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v7, v2) = v8 & sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v6) = v5 & sdtpldt0(v4, v9) = v8 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v7))
% 31.16/11.16  | (14)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v2) = v1) |  ~ (szszuzczcdt0(v2) = v0))
% 31.16/11.16  | (15)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (smndt0(v2) = v1) |  ~ (smndt0(v2) = v0))
% 31.16/11.16  | (16)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 31.16/11.16  | (17)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (smndt0(v1) = v3) |  ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtasdt0(v0, v1) = v4)
% 31.16/11.16  | (18)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] : (sdtasasdt0(v5, v6) = v7 & sziznziztdt0(v1) = v6 & sziznziztdt0(v0) = v5 & sdtlbdtrb0(v1, v4) = v9 & sdtlbdtrb0(v0, v3) = v8 & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & sdtasdt0(v8, v9) = v10 & sdtpldt0(v7, v10) = v11 & ( ~ (v4 = v3) | v11 = v2 | v3 = sz00)))
% 31.16/11.16  | (19)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 31.16/11.16  | (20) sziznziztdt0(xs) = xp
% 31.16/11.16  | (21)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 31.16/11.16  | (22) aScalar0(xR)
% 31.16/11.16  | (23)  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 31.16/11.16  | (24) sdtasdt0(xR, xS) = xN
% 31.16/11.16  | (25)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | aNaturalNumber0(v1))
% 31.16/11.16  | (26)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtlbdtrb0(v0, v1) = v2) |  ~ aVector0(v0) |  ~ aNaturalNumber0(v1) | aScalar0(v2))
% 31.16/11.16  | (27)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v0) = v5 & aDimensionOf0(v5) = v6 & aDimensionOf0(v3) = v7 & aDimensionOf0(v1) = v4 & ( ~ (v4 = v2) | v7 = v6 | v2 = sz00)))
% 31.16/11.16  | (28)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtpldt0(v3, v2) = v1) |  ~ (sdtpldt0(v3, v2) = v0))
% 31.16/11.16  | (29) sdtasdt0(xE, xE) = all_0_5_5
% 31.16/11.16  | (30)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_7_7 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 31.16/11.16  | (31) aDimensionOf0(xt) = all_0_6_6
% 31.16/11.16  | (32)  ! [v0] :  ! [v1] : ( ~ (szszuzczcdt0(v0) = v1) |  ~ aNaturalNumber0(v0) | iLess0(v0, v1))
% 31.16/11.16  | (33)  ! [v0] : (v0 = sz00 |  ~ aNaturalNumber0(v0) |  ? [v1] : (szszuzczcdt0(v1) = v0 & aNaturalNumber0(v1)))
% 31.16/11.16  | (34)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] : ( ~ (sdtasdt0(v4, v5) = v6) |  ~ (sdtpldt0(v2, v3) = v5) |  ~ (sdtpldt0(v0, v1) = v4) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v7] :  ? [v8] :  ? [v9] :  ? [v10] :  ? [v11] :  ? [v12] : (sdtasdt0(v1, v3) = v11 & sdtasdt0(v1, v2) = v10 & sdtasdt0(v0, v3) = v8 & sdtasdt0(v0, v2) = v7 & sdtpldt0(v10, v11) = v12 & sdtpldt0(v9, v12) = v6 & sdtpldt0(v7, v8) = v9))
% 31.16/11.16  | (35)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, v0) = v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v1))
% 31.16/11.16  | (36)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtpldt0(v1, v3) = v5) |  ~ (sdtpldt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 31.16/11.16  | (37) aScalar0(xF)
% 31.16/11.16  | (38)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasasdt0(v1, v1) = v3) |  ~ (sdtasasdt0(v0, v0) = v2) |  ~ (sdtasdt0(v2, v3) = v4) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v0, v1) = v7 & aDimensionOf0(v1) = v6 & aDimensionOf0(v0) = v5 & sdtasdt0(v7, v7) = v8 & ( ~ (v6 = v5) |  ~ iLess0(v5, all_0_6_6) | sdtlseqdt0(v8, v4))))
% 31.16/11.16  | (39)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.16/11.16  | (40) sdtasdt0(xC, xD) = all_0_4_4
% 31.16/11.16  | (41)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v0))
% 31.16/11.16  | (42) sdtasdt0(xE, xH) = xP
% 31.16/11.16  | (43)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 31.16/11.16  | (44) sziznziztdt0(xt) = xq
% 31.16/11.16  | (45)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] : (smndt0(v1) = v4 & smndt0(v0) = v3 & sdtasdt0(v3, v4) = v2))
% 31.16/11.16  | (46) aVector0(xp)
% 31.16/11.16  | (47) aScalar0(xD)
% 31.16/11.16  | (48)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | aScalar0(v2))
% 31.16/11.16  | (49)  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0))
% 31.16/11.16  | (50) sdtlseqdt0(all_0_5_5, all_0_4_4)
% 31.16/11.16  | (51)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | aScalar0(v1))
% 31.16/11.17  | (52)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] :  ! [v6] :  ! [v7] :  ! [v8] :  ! [v9] :  ! [v10] : ( ~ (sdtasdt0(v1, v3) = v8) |  ~ (sdtasdt0(v1, v2) = v7) |  ~ (sdtasdt0(v0, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ (sdtpldt0(v7, v8) = v9) |  ~ (sdtpldt0(v6, v9) = v10) |  ~ (sdtpldt0(v4, v5) = v6) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v11] :  ? [v12] : (sdtasdt0(v11, v12) = v10 & sdtpldt0(v2, v3) = v12 & sdtpldt0(v0, v1) = v11))
% 31.16/11.17  | (53)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ sdtlseqdt0(v1, v2) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v0, v2))
% 31.16/11.17  | (54)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (smndt0(v2) = v4 & smndt0(v1) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v4 & sdtasdt0(v0, v3) = v4))
% 31.16/11.17  | (55)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) | aNaturalNumber0(v1))
% 31.16/11.17  | (56) sdtlseqdt0(all_0_3_3, xN)
% 31.16/11.17  | (57)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtpldt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtasdt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 31.16/11.17  | (58)  ! [v0] :  ! [v1] :  ! [v2] : (all_0_7_7 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ (sdtpldt0(v1, v0) = v2) |  ~ aScalar0(v0))
% 31.16/11.17  | (59)  ! [v0] :  ! [v1] : (v1 = sz0z00 |  ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 31.16/11.17  | (60)  ! [v0] :  ! [v1] : ( ~ (sdtasasdt0(v0, v0) = v1) |  ~ aVector0(v0) | sdtlseqdt0(sz0z00, v1))
% 31.16/11.17  | (61) aDimensionOf0(xs) = all_0_6_6
% 31.16/11.17  | (62) smndt0(xN) = all_0_0_0
% 31.16/11.17  | (63) aScalar0(xB)
% 31.16/11.17  | (64)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasasdt0(v4, v5) = v6 & sdtasasdt0(v0, v1) = v3 & sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v4 & sdtlbdtrb0(v1, v2) = v8 & sdtlbdtrb0(v0, v2) = v7 & sdtasdt0(v7, v8) = v9 & sdtpldt0(v6, v9) = v3))
% 31.16/11.17  | (65)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v3) = v5) |  ~ (sdtasdt0(v0, v2) = v4) |  ~ sdtlseqdt0(v2, v3) |  ~ sdtlseqdt0(v0, v1) |  ~ sdtlseqdt0(sz0z00, v2) |  ~ aScalar0(v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v4, v5))
% 31.16/11.17  | (66) smndt0(sz0z00) = all_0_7_7
% 31.16/11.17  | (67)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 31.16/11.17  | (68)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v1, v2) = v5 & sdtpldt0(v1, v0) = v3 & sdtpldt0(v0, v5) = v4))
% 31.16/11.17  | (69)  ! [v0] : ( ~ aScalar0(v0) | sdtlseqdt0(v0, v0))
% 31.16/11.17  | (70) aScalar0(xE)
% 31.16/11.17  | (71)  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (smndt0(v0) = v1) |  ~ aScalar0(v0))
% 31.16/11.17  | (72)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.16/11.17  | (73)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtasdt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v3 & sdtasdt0(v0, v8) = v4 & sdtpldt0(v5, v2) = v6 & sdtpldt0(v1, v2) = v7 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v7) = v6 & sdtpldt0(v0, v1) = v5))
% 31.16/11.17  | (74) smndt0(xS) = all_0_2_2
% 31.16/11.17  | (75) sdtasdt0(xP, xP) = all_0_3_3
% 31.16/11.17  | (76)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) | aScalar0(v2) |  ? [v3] :  ? [v4] : ( ~ (v4 = v3) & aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3))
% 31.16/11.17  | (77)  ! [v0] :  ! [v1] : (all_0_7_7 = sz0z00 |  ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0))
% 31.16/11.17  | (78) aScalar0(xH)
% 31.16/11.17  | (79)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] : (sdtasasdt0(v0, v1) = v3 & aScalar0(v3)))
% 31.16/11.17  | (80)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtlbdtrb0(v3, v2) = v1) |  ~ (sdtlbdtrb0(v3, v2) = v0))
% 31.16/11.17  | (81) sdtasdt0(xF, xD) = xS
% 31.16/11.17  | (82)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (aDimensionOf0(v2) = v1) |  ~ (aDimensionOf0(v2) = v0))
% 31.16/11.17  | (83) sdtasdt0(xB, xB) = xG
% 31.16/11.17  | (84)  ~ (all_0_6_6 = sz00)
% 31.16/11.17  | (85) aVector0(xt)
% 31.16/11.17  | (86) aNaturalNumber0(sz00)
% 31.16/11.17  | (87)  ! [v0] :  ! [v1] : (v1 = sz00 |  ~ (aDimensionOf0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (sziznziztdt0(v0) = v2 &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v2, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v2) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v2, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v2 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v1) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | szszuzczcdt0(v3) = v1) &  ! [v3] : ( ~ (aDimensionOf0(v2) = v3) | aVector0(v2))))
% 31.16/11.18  | (88)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sziznziztdt0(v1) = v3) |  ~ (sziznziztdt0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (aDimensionOf0(v3) = v7 & aDimensionOf0(v2) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v5 = v4) | v7 = v6 | v4 = sz00)))
% 31.16/11.18  | (89)  ! [v0] :  ! [v1] : ( ~ (smndt0(v0) = v1) |  ~ aScalar0(v0) | (smndt0(v1) = v0 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v1, v0) = sz0z00 & sdtpldt0(v0, v1) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.16/11.18  | (90) aVector0(xs)
% 31.16/11.18  | (91)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sdtasdt0(v1, v1) = v2) |  ~ (sdtasdt0(v0, v0) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 31.16/11.18  | (92)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz00 |  ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] :  ? [v5] : (sziznziztdt0(v1) = v5 & sziznziztdt0(v0) = v3 & aDimensionOf0(v5) = v4 & aDimensionOf0(v3) = v4))
% 31.16/11.18  | (93)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtpldt0(v1, v2) = v3) |  ~ (sdtpldt0(v0, v3) = v4) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasdt0(v6, v2) = v7 & sdtasdt0(v1, v2) = v8 & sdtasdt0(v1, v0) = v6 & sdtasdt0(v0, v8) = v7 & sdtasdt0(v0, v1) = v6 & sdtpldt0(v5, v2) = v4 & sdtpldt0(v1, v0) = v5 & sdtpldt0(v0, v1) = v5))
% 31.16/11.18  | (94) sdtlbdtrb0(xs, all_0_6_6) = xA
% 31.16/11.18  | (95)  ! [v0] :  ! [v1] : ( ~ (aDimensionOf0(v1) = sz00) |  ~ (aDimensionOf0(v0) = sz00) |  ~ aVector0(v1) |  ~ aVector0(v0) | sdtasasdt0(v0, v1) = sz0z00)
% 31.16/11.18  | (96)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (aDimensionOf0(v1) = v2) |  ~ (aDimensionOf0(v0) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ~ iLess0(v2, all_0_6_6) |  ? [v3] :  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sdtasasdt0(v1, v1) = v6 & sdtasasdt0(v0, v1) = v3 & sdtasasdt0(v0, v0) = v5 & sdtasdt0(v5, v6) = v7 & sdtasdt0(v3, v3) = v4 & sdtlseqdt0(v4, v7)))
% 31.16/11.18  | (97)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v3] : (sdtpldt0(v0, v1) = v3 & sdtlseqdt0(sz0z00, v3)))
% 31.16/11.18  | (98)  ! [v0] :  ! [v1] : ( ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(v1, v0) | sdtlseqdt0(v0, v1))
% 31.16/11.18  | (99)  ! [v0] :  ! [v1] : ( ~ (sziznziztdt0(v0) = v1) |  ~ aVector0(v0) |  ? [v2] : (aDimensionOf0(v0) = v2 & (v2 = sz00 | ( ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v1, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v0, v4) = v5) &  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtlbdtrb0(v0, v4) = v5) |  ~ (aDimensionOf0(v1) = v3) |  ~ aNaturalNumber0(v4) | sdtlbdtrb0(v1, v4) = v5) &  ! [v3] :  ! [v4] : (v3 = v1 |  ~ (aDimensionOf0(v3) = v4) |  ~ aVector0(v3) |  ? [v5] :  ? [v6] :  ? [v7] : (( ~ (v7 = v6) & sdtlbdtrb0(v3, v5) = v6 & sdtlbdtrb0(v0, v5) = v7 & aNaturalNumber0(v5)) | ( ~ (v5 = v2) & szszuzczcdt0(v4) = v5))) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | szszuzczcdt0(v3) = v2) &  ! [v3] : ( ~ (aDimensionOf0(v1) = v3) | aVector0(v1))))))
% 31.16/11.18  | (100)  ! [v0] :  ! [v1] : ( ~ (sdtasdt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0 & sdtpldt0(sz0z00, v0) = v0))
% 31.16/11.18  | (101)  ! [v0] :  ! [v1] :  ! [v2] : ( ~ (sdtasdt0(v0, v1) = v2) |  ~ sdtlseqdt0(sz0z00, v1) |  ~ sdtlseqdt0(sz0z00, v0) |  ~ aScalar0(v1) |  ~ aScalar0(v0) | sdtlseqdt0(sz0z00, v2))
% 31.16/11.18  | (102)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (szszuzczcdt0(v1) = v2) |  ~ (szszuzczcdt0(v0) = v2) |  ~ aNaturalNumber0(v1) |  ~ aNaturalNumber0(v0))
% 31.16/11.18  | (103)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v0) = v2) |  ~ (sdtasdt0(v2, v1) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v5) = v3 & smndt0(v1) = v4 & sdtasdt0(v0, v4) = v3 & sdtasdt0(v0, v1) = v5))
% 31.16/11.18  | (104) aScalar0(sz0z00)
% 31.16/11.18  | (105) sdtasdt0(xC, xG) = xR
% 31.16/11.18  | (106) aScalar0(xA)
% 31.16/11.18  | (107)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(v0, sz0z00) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(sz0z00, v0) = v0))
% 31.16/11.19  | (108)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v2 = sz00 |  ~ (sziznziztdt0(v0) = v3) |  ~ (aDimensionOf0(v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] : (sziznziztdt0(v1) = v6 & aDimensionOf0(v6) = v7 & aDimensionOf0(v3) = v5 & aDimensionOf0(v0) = v4 & ( ~ (v4 = v2) | v7 = v5)))
% 31.16/11.19  | (109) aScalar0(xP)
% 31.16/11.19  | (110) sdtasasdt0(xp, xq) = xE
% 31.16/11.19  | (111) aScalar0(xN)
% 31.16/11.19  | (112) sdtasasdt0(xq, xq) = xD
% 31.16/11.19  | (113) sdtasdt0(xA, xA) = xF
% 31.16/11.19  | (114)  ! [v0] :  ! [v1] :  ! [v2] : (v2 = sz0z00 |  ~ (sdtasasdt0(v0, v1) = v2) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v3] :  ? [v4] : (aDimensionOf0(v1) = v4 & aDimensionOf0(v0) = v3 & ( ~ (v4 = sz00) |  ~ (v3 = sz00))))
% 31.16/11.19  | (115)  ! [v0] :  ! [v1] : (v1 = v0 |  ~ sdtlseqdt0(v1, v0) |  ~ sdtlseqdt0(v0, v1) |  ~ aScalar0(v1) |  ~ aScalar0(v0))
% 31.16/11.19  | (116)  ! [v0] :  ! [v1] :  ! [v2] : (v1 = v0 |  ~ (sziznziztdt0(v2) = v1) |  ~ (sziznziztdt0(v2) = v0))
% 31.16/11.19  | (117)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (sdtasasdt0(v0, v1) = v2) |  ~ (sdtasdt0(v2, v2) = v3) |  ~ aVector0(v1) |  ~ aVector0(v0) |  ? [v4] :  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] : (sdtasasdt0(v1, v1) = v7 & sdtasasdt0(v0, v0) = v6 & aDimensionOf0(v1) = v5 & aDimensionOf0(v0) = v4 & sdtasdt0(v6, v7) = v8 & ( ~ (v5 = v4) |  ~ iLess0(v4, all_0_6_6) | sdtlseqdt0(v3, v8))))
% 31.16/11.19  | (118) sdtasdt0(xA, xB) = xH
% 31.16/11.19  | (119)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasdt0(v3, v2) = v1) |  ~ (sdtasdt0(v3, v2) = v0))
% 31.16/11.19  | (120)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] :  ! [v5] : ( ~ (sdtasdt0(v1, v2) = v4) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ (sdtpldt0(v3, v4) = v5) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v9, v2) = v5 & sdtasdt0(v0, v6) = v7 & sdtasdt0(v0, v1) = v8 & sdtpldt0(v8, v3) = v7 & sdtpldt0(v1, v2) = v6 & sdtpldt0(v0, v1) = v9))
% 31.16/11.19  | (121) aVector0(xq)
% 31.16/11.19  | (122)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] :  ! [v4] : ( ~ (sdtasdt0(v3, v2) = v4) |  ~ (sdtpldt0(v0, v1) = v3) |  ~ aScalar0(v2) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v5] :  ? [v6] :  ? [v7] :  ? [v8] :  ? [v9] : (sdtasdt0(v1, v2) = v9 & sdtasdt0(v0, v5) = v6 & sdtasdt0(v0, v2) = v8 & sdtasdt0(v0, v1) = v7 & sdtpldt0(v8, v9) = v4 & sdtpldt0(v7, v8) = v6 & sdtpldt0(v1, v2) = v5))
% 31.16/11.19  | (123)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : (v1 = v0 |  ~ (sdtasasdt0(v3, v2) = v1) |  ~ (sdtasasdt0(v3, v2) = v0))
% 31.16/11.19  | (124)  ! [v0] :  ! [v1] : ( ~ (sdtpldt0(sz0z00, v0) = v1) |  ~ aScalar0(v0) |  ? [v2] : (smndt0(v2) = v0 & smndt0(v0) = v2 & sdtasdt0(v0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtpldt0(v2, v0) = sz0z00 & sdtpldt0(v0, v2) = sz0z00 & sdtpldt0(v0, sz0z00) = v0))
% 31.16/11.19  | (125) aScalar0(xS)
% 31.16/11.19  | (126) sdtasasdt0(xp, xp) = xC
% 31.16/11.19  | (127)  ! [v0] :  ! [v1] :  ! [v2] :  ! [v3] : ( ~ (smndt0(v1) = v2) |  ~ (sdtasdt0(v0, v2) = v3) |  ~ aScalar0(v1) |  ~ aScalar0(v0) |  ? [v4] :  ? [v5] : (smndt0(v4) = v3 & smndt0(v0) = v5 & sdtasdt0(v5, v1) = v3 & sdtasdt0(v0, v1) = v4))
% 31.16/11.19  | (128) aScalar0(xG)
% 31.16/11.19  |
% 31.16/11.19  | Instantiating formula (71) with all_0_7_7, sz0z00 and discharging atoms smndt0(sz0z00) = all_0_7_7, aScalar0(sz0z00), yields:
% 31.16/11.19  | (129) all_0_7_7 = sz0z00
% 31.16/11.19  |
% 31.16/11.19  | From (129) and (66) follows:
% 31.16/11.19  | (130) smndt0(sz0z00) = sz0z00
% 31.16/11.19  |
% 31.16/11.19  | Instantiating formula (51) with all_0_0_0, xN and discharging atoms smndt0(xN) = all_0_0_0, aScalar0(xN), yields:
% 31.16/11.19  | (131) aScalar0(all_0_0_0)
% 31.16/11.19  |
% 31.16/11.19  | Instantiating formula (89) with all_0_0_0, xN and discharging atoms smndt0(xN) = all_0_0_0, aScalar0(xN), yields:
% 31.16/11.19  | (132) smndt0(all_0_0_0) = xN & sdtasdt0(xN, sz0z00) = sz0z00 & sdtasdt0(sz0z00, xN) = sz0z00 & sdtpldt0(all_0_0_0, xN) = sz0z00 & sdtpldt0(xN, all_0_0_0) = sz0z00 & sdtpldt0(xN, sz0z00) = xN & sdtpldt0(sz0z00, xN) = xN
% 31.16/11.19  |
% 31.16/11.19  | Applying alpha-rule on (132) yields:
% 31.16/11.19  | (133) sdtpldt0(xN, all_0_0_0) = sz0z00
% 31.16/11.19  | (134) sdtpldt0(all_0_0_0, xN) = sz0z00
% 31.16/11.19  | (135) sdtpldt0(xN, sz0z00) = xN
% 31.16/11.19  | (136) smndt0(all_0_0_0) = xN
% 31.16/11.19  | (137) sdtasdt0(sz0z00, xN) = sz0z00
% 31.16/11.19  | (138) sdtpldt0(sz0z00, xN) = xN
% 31.16/11.19  | (139) sdtasdt0(xN, sz0z00) = sz0z00
% 31.16/11.19  |
% 31.16/11.19  | Instantiating formula (89) with all_0_2_2, xS and discharging atoms smndt0(xS) = all_0_2_2, aScalar0(xS), yields:
% 31.16/11.19  | (140) smndt0(all_0_2_2) = xS & sdtasdt0(xS, sz0z00) = sz0z00 & sdtasdt0(sz0z00, xS) = sz0z00 & sdtpldt0(all_0_2_2, xS) = sz0z00 & sdtpldt0(xS, all_0_2_2) = sz0z00 & sdtpldt0(xS, sz0z00) = xS & sdtpldt0(sz0z00, xS) = xS
% 31.16/11.19  |
% 31.16/11.19  | Applying alpha-rule on (140) yields:
% 31.16/11.19  | (141) sdtpldt0(sz0z00, xS) = xS
% 31.16/11.19  | (142) sdtpldt0(xS, all_0_2_2) = sz0z00
% 31.16/11.19  | (143) sdtpldt0(all_0_2_2, xS) = sz0z00
% 31.16/11.20  | (144) sdtasdt0(sz0z00, xS) = sz0z00
% 31.16/11.20  | (145) smndt0(all_0_2_2) = xS
% 31.16/11.20  | (146) sdtasdt0(xS, sz0z00) = sz0z00
% 31.16/11.20  | (147) sdtpldt0(xS, sz0z00) = xS
% 31.16/11.20  |
% 31.16/11.20  | Instantiating formula (103) with all_0_1_1, all_0_2_2, xR, xS and discharging atoms smndt0(xS) = all_0_2_2, sdtasdt0(all_0_2_2, xR) = all_0_1_1, aScalar0(xS), aScalar0(xR), yields:
% 31.16/11.20  | (148)  ? [v0] :  ? [v1] : (smndt0(v1) = all_0_1_1 & smndt0(xR) = v0 & sdtasdt0(xS, v0) = all_0_1_1 & sdtasdt0(xS, xR) = v1)
% 31.16/11.20  |
% 31.16/11.20  | Instantiating (148) with all_43_0_56, all_43_1_57 yields:
% 31.16/11.20  | (149) smndt0(all_43_0_56) = all_0_1_1 & smndt0(xR) = all_43_1_57 & sdtasdt0(xS, all_43_1_57) = all_0_1_1 & sdtasdt0(xS, xR) = all_43_0_56
% 31.16/11.20  |
% 31.16/11.20  | Applying alpha-rule on (149) yields:
% 31.16/11.20  | (150) smndt0(all_43_0_56) = all_0_1_1
% 31.16/11.20  | (151) smndt0(xR) = all_43_1_57
% 31.16/11.20  | (152) sdtasdt0(xS, all_43_1_57) = all_0_1_1
% 31.16/11.20  | (153) sdtasdt0(xS, xR) = all_43_0_56
% 31.16/11.20  |
% 31.16/11.20  | Instantiating formula (73) with sz0z00, xN, sz0z00, xS, xR and discharging atoms sdtasdt0(xN, sz0z00) = sz0z00, sdtasdt0(xR, xS) = xN, aScalar0(xS), aScalar0(xR), aScalar0(sz0z00), yields:
% 31.16/11.20  | (154)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] : (sdtasdt0(xS, xR) = xN & sdtasdt0(xS, sz0z00) = v3 & sdtasdt0(xR, v3) = sz0z00 & sdtpldt0(v0, sz0z00) = v1 & sdtpldt0(xS, xR) = v0 & sdtpldt0(xS, sz0z00) = v2 & sdtpldt0(xR, v2) = v1 & sdtpldt0(xR, xS) = v0)
% 31.16/11.20  |
% 31.16/11.20  | Instantiating formula (127) with sz0z00, sz0z00, sz0z00, xN and discharging atoms smndt0(sz0z00) = sz0z00, sdtasdt0(xN, sz0z00) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.16/11.20  | (155)  ? [v0] :  ? [v1] : (smndt0(v0) = sz0z00 & smndt0(xN) = v1 & sdtasdt0(v1, sz0z00) = sz0z00 & sdtasdt0(xN, sz0z00) = v0)
% 31.16/11.20  |
% 31.16/11.20  | Instantiating formula (54) with sz0z00, sz0z00, xN and discharging atoms sdtasdt0(xN, sz0z00) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.16/11.20  | (156)  ? [v0] :  ? [v1] :  ? [v2] : (smndt0(xN) = v2 & smndt0(sz0z00) = v1 & smndt0(sz0z00) = v0 & sdtasdt0(v2, sz0z00) = v1 & sdtasdt0(xN, v0) = v1)
% 31.16/11.20  |
% 31.16/11.20  | Instantiating formula (45) with sz0z00, sz0z00, xN and discharging atoms sdtasdt0(xN, sz0z00) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.16/11.20  | (157)  ? [v0] :  ? [v1] : (smndt0(xN) = v0 & smndt0(sz0z00) = v1 & sdtasdt0(v0, v1) = sz0z00)
% 31.16/11.20  |
% 31.16/11.20  | Instantiating formula (103) with sz0z00, sz0z00, xN, sz0z00 and discharging atoms smndt0(sz0z00) = sz0z00, sdtasdt0(sz0z00, xN) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.16/11.20  | (158)  ? [v0] :  ? [v1] : (smndt0(v1) = sz0z00 & smndt0(xN) = v0 & sdtasdt0(sz0z00, v0) = sz0z00 & sdtasdt0(sz0z00, xN) = v1)
% 31.16/11.20  |
% 31.16/11.20  | Instantiating formula (54) with sz0z00, xN, sz0z00 and discharging atoms sdtasdt0(sz0z00, xN) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.54/11.20  | (159)  ? [v0] :  ? [v1] :  ? [v2] : (smndt0(xN) = v0 & smndt0(sz0z00) = v2 & smndt0(sz0z00) = v1 & sdtasdt0(v2, xN) = v1 & sdtasdt0(sz0z00, v0) = v1)
% 31.54/11.20  |
% 31.54/11.20  | Instantiating formula (45) with sz0z00, xN, sz0z00 and discharging atoms sdtasdt0(sz0z00, xN) = sz0z00, aScalar0(xN), aScalar0(sz0z00), yields:
% 31.54/11.20  | (160)  ? [v0] :  ? [v1] : (smndt0(xN) = v1 & smndt0(sz0z00) = v0 & sdtasdt0(v0, v1) = sz0z00)
% 31.54/11.20  |
% 31.54/11.20  | Instantiating formula (122) with all_43_0_56, xS, xR, sz0z00, xS and discharging atoms sdtasdt0(xS, xR) = all_43_0_56, sdtpldt0(xS, sz0z00) = xS, aScalar0(xS), aScalar0(xR), aScalar0(sz0z00), yields:
% 31.54/11.20  | (161)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] : (sdtasdt0(xS, v0) = v1 & sdtasdt0(xS, xR) = v3 & sdtasdt0(xS, sz0z00) = v2 & sdtasdt0(sz0z00, xR) = v4 & sdtpldt0(v3, v4) = all_43_0_56 & sdtpldt0(v2, v3) = v1 & sdtpldt0(sz0z00, xR) = v0)
% 31.54/11.20  |
% 31.54/11.20  | Instantiating formula (122) with all_43_0_56, xS, xR, xS, sz0z00 and discharging atoms sdtasdt0(xS, xR) = all_43_0_56, sdtpldt0(sz0z00, xS) = xS, aScalar0(xS), aScalar0(xR), aScalar0(sz0z00), yields:
% 31.54/11.20  | (162)  ? [v0] :  ? [v1] :  ? [v2] :  ? [v3] :  ? [v4] : (sdtasdt0(xS, xR) = v4 & sdtasdt0(sz0z00, v0) = v1 & sdtasdt0(sz0z00, xS) = v2 & sdtasdt0(sz0z00, xR) = v3 & sdtpldt0(v3, v4) = all_43_0_56 & sdtpldt0(v2, v3) = v1 & sdtpldt0(xS, xR) = v0)
% 31.54/11.20  |
% 31.54/11.20  | Instantiating formula (89) with xN, all_0_0_0 and discharging atoms smndt0(all_0_0_0) = xN, aScalar0(all_0_0_0), yields:
% 31.54/11.20  | (163) smndt0(xN) = all_0_0_0 & sdtasdt0(all_0_0_0, sz0z00) = sz0z00 & sdtasdt0(sz0z00, all_0_0_0) = sz0z00 & sdtpldt0(all_0_0_0, xN) = sz0z00 & sdtpldt0(all_0_0_0, sz0z00) = all_0_0_0 & sdtpldt0(xN, all_0_0_0) = sz0z00 & sdtpldt0(sz0z00, all_0_0_0) = all_0_0_0
% 31.54/11.20  |
% 31.54/11.20  | Applying alpha-rule on (163) yields:
% 31.54/11.20  | (164) sdtpldt0(sz0z00, all_0_0_0) = all_0_0_0
% 31.54/11.20  | (133) sdtpldt0(xN, all_0_0_0) = sz0z00
% 31.54/11.20  | (134) sdtpldt0(all_0_0_0, xN) = sz0z00
% 31.54/11.20  | (167) sdtpldt0(all_0_0_0, sz0z00) = all_0_0_0
% 31.54/11.20  | (168) sdtasdt0(sz0z00, all_0_0_0) = sz0z00
% 31.54/11.20  | (62) smndt0(xN) = all_0_0_0
% 31.54/11.20  | (170) sdtasdt0(all_0_0_0, sz0z00) = sz0z00
% 31.54/11.20  |
% 31.54/11.20  | Instantiating (159) with all_418_0_539, all_418_1_540, all_418_2_541 yields:
% 31.54/11.20  | (171) smndt0(xN) = all_418_2_541 & smndt0(sz0z00) = all_418_0_539 & smndt0(sz0z00) = all_418_1_540 & sdtasdt0(all_418_0_539, xN) = all_418_1_540 & sdtasdt0(sz0z00, all_418_2_541) = all_418_1_540
% 31.54/11.20  |
% 31.54/11.20  | Applying alpha-rule on (171) yields:
% 31.54/11.20  | (172) smndt0(xN) = all_418_2_541
% 31.54/11.20  | (173) smndt0(sz0z00) = all_418_0_539
% 31.54/11.20  | (174) sdtasdt0(all_418_0_539, xN) = all_418_1_540
% 31.54/11.20  | (175) sdtasdt0(sz0z00, all_418_2_541) = all_418_1_540
% 31.54/11.20  | (176) smndt0(sz0z00) = all_418_1_540
% 31.54/11.20  |
% 31.54/11.20  | Instantiating (158) with all_420_0_542, all_420_1_543 yields:
% 31.54/11.20  | (177) smndt0(all_420_0_542) = sz0z00 & smndt0(xN) = all_420_1_543 & sdtasdt0(sz0z00, all_420_1_543) = sz0z00 & sdtasdt0(sz0z00, xN) = all_420_0_542
% 31.54/11.20  |
% 31.54/11.20  | Applying alpha-rule on (177) yields:
% 31.54/11.20  | (178) smndt0(all_420_0_542) = sz0z00
% 31.54/11.20  | (179) smndt0(xN) = all_420_1_543
% 31.54/11.20  | (180) sdtasdt0(sz0z00, all_420_1_543) = sz0z00
% 31.54/11.21  | (181) sdtasdt0(sz0z00, xN) = all_420_0_542
% 31.54/11.21  |
% 31.54/11.21  | Instantiating (160) with all_432_0_563, all_432_1_564 yields:
% 31.54/11.21  | (182) smndt0(xN) = all_432_0_563 & smndt0(sz0z00) = all_432_1_564 & sdtasdt0(all_432_1_564, all_432_0_563) = sz0z00
% 31.54/11.21  |
% 31.54/11.21  | Applying alpha-rule on (182) yields:
% 31.54/11.21  | (183) smndt0(xN) = all_432_0_563
% 31.54/11.21  | (184) smndt0(sz0z00) = all_432_1_564
% 31.54/11.21  | (185) sdtasdt0(all_432_1_564, all_432_0_563) = sz0z00
% 31.54/11.21  |
% 31.54/11.21  | Instantiating (161) with all_700_0_1077, all_700_1_1078, all_700_2_1079, all_700_3_1080, all_700_4_1081 yields:
% 31.54/11.21  | (186) sdtasdt0(xS, all_700_4_1081) = all_700_3_1080 & sdtasdt0(xS, xR) = all_700_1_1078 & sdtasdt0(xS, sz0z00) = all_700_2_1079 & sdtasdt0(sz0z00, xR) = all_700_0_1077 & sdtpldt0(all_700_1_1078, all_700_0_1077) = all_43_0_56 & sdtpldt0(all_700_2_1079, all_700_1_1078) = all_700_3_1080 & sdtpldt0(sz0z00, xR) = all_700_4_1081
% 31.54/11.21  |
% 31.54/11.21  | Applying alpha-rule on (186) yields:
% 31.54/11.21  | (187) sdtpldt0(all_700_2_1079, all_700_1_1078) = all_700_3_1080
% 31.54/11.21  | (188) sdtasdt0(sz0z00, xR) = all_700_0_1077
% 31.54/11.21  | (189) sdtasdt0(xS, xR) = all_700_1_1078
% 31.54/11.21  | (190) sdtpldt0(sz0z00, xR) = all_700_4_1081
% 31.54/11.21  | (191) sdtasdt0(xS, all_700_4_1081) = all_700_3_1080
% 31.54/11.21  | (192) sdtasdt0(xS, sz0z00) = all_700_2_1079
% 31.54/11.21  | (193) sdtpldt0(all_700_1_1078, all_700_0_1077) = all_43_0_56
% 31.54/11.21  |
% 31.54/11.21  | Instantiating (162) with all_778_0_1248, all_778_1_1249, all_778_2_1250, all_778_3_1251, all_778_4_1252 yields:
% 31.54/11.21  | (194) sdtasdt0(xS, xR) = all_778_0_1248 & sdtasdt0(sz0z00, all_778_4_1252) = all_778_3_1251 & sdtasdt0(sz0z00, xS) = all_778_2_1250 & sdtasdt0(sz0z00, xR) = all_778_1_1249 & sdtpldt0(all_778_1_1249, all_778_0_1248) = all_43_0_56 & sdtpldt0(all_778_2_1250, all_778_1_1249) = all_778_3_1251 & sdtpldt0(xS, xR) = all_778_4_1252
% 31.54/11.21  |
% 31.54/11.21  | Applying alpha-rule on (194) yields:
% 31.54/11.21  | (195) sdtasdt0(xS, xR) = all_778_0_1248
% 31.54/11.21  | (196) sdtpldt0(all_778_1_1249, all_778_0_1248) = all_43_0_56
% 31.54/11.21  | (197) sdtpldt0(all_778_2_1250, all_778_1_1249) = all_778_3_1251
% 31.54/11.21  | (198) sdtasdt0(sz0z00, all_778_4_1252) = all_778_3_1251
% 31.54/11.21  | (199) sdtpldt0(xS, xR) = all_778_4_1252
% 31.54/11.21  | (200) sdtasdt0(sz0z00, xR) = all_778_1_1249
% 31.54/11.21  | (201) sdtasdt0(sz0z00, xS) = all_778_2_1250
% 31.54/11.21  |
% 31.54/11.21  | Instantiating (157) with all_810_0_1332, all_810_1_1333 yields:
% 31.54/11.21  | (202) smndt0(xN) = all_810_1_1333 & smndt0(sz0z00) = all_810_0_1332 & sdtasdt0(all_810_1_1333, all_810_0_1332) = sz0z00
% 31.54/11.21  |
% 31.54/11.21  | Applying alpha-rule on (202) yields:
% 31.54/11.21  | (203) smndt0(xN) = all_810_1_1333
% 31.54/11.21  | (204) smndt0(sz0z00) = all_810_0_1332
% 31.54/11.21  | (205) sdtasdt0(all_810_1_1333, all_810_0_1332) = sz0z00
% 31.54/11.21  |
% 31.54/11.21  | Instantiating (156) with all_812_0_1334, all_812_1_1335, all_812_2_1336 yields:
% 31.54/11.21  | (206) smndt0(xN) = all_812_0_1334 & smndt0(sz0z00) = all_812_1_1335 & smndt0(sz0z00) = all_812_2_1336 & sdtasdt0(all_812_0_1334, sz0z00) = all_812_1_1335 & sdtasdt0(xN, all_812_2_1336) = all_812_1_1335
% 31.54/11.21  |
% 31.54/11.21  | Applying alpha-rule on (206) yields:
% 31.54/11.21  | (207) smndt0(sz0z00) = all_812_1_1335
% 31.54/11.21  | (208) smndt0(sz0z00) = all_812_2_1336
% 31.54/11.21  | (209) smndt0(xN) = all_812_0_1334
% 31.54/11.21  | (210) sdtasdt0(all_812_0_1334, sz0z00) = all_812_1_1335
% 31.54/11.21  | (211) sdtasdt0(xN, all_812_2_1336) = all_812_1_1335
% 31.54/11.21  |
% 31.54/11.21  | Instantiating (155) with all_814_0_1337, all_814_1_1338 yields:
% 31.54/11.21  | (212) smndt0(all_814_1_1338) = sz0z00 & smndt0(xN) = all_814_0_1337 & sdtasdt0(all_814_0_1337, sz0z00) = sz0z00 & sdtasdt0(xN, sz0z00) = all_814_1_1338
% 31.54/11.21  |
% 31.54/11.21  | Applying alpha-rule on (212) yields:
% 31.54/11.21  | (213) smndt0(all_814_1_1338) = sz0z00
% 31.54/11.21  | (214) smndt0(xN) = all_814_0_1337
% 31.54/11.21  | (215) sdtasdt0(all_814_0_1337, sz0z00) = sz0z00
% 31.54/11.21  | (216) sdtasdt0(xN, sz0z00) = all_814_1_1338
% 31.54/11.21  |
% 31.54/11.21  | Instantiating (154) with all_824_0_1353, all_824_1_1354, all_824_2_1355, all_824_3_1356 yields:
% 31.54/11.21  | (217) sdtasdt0(xS, xR) = xN & sdtasdt0(xS, sz0z00) = all_824_0_1353 & sdtasdt0(xR, all_824_0_1353) = sz0z00 & sdtpldt0(all_824_3_1356, sz0z00) = all_824_2_1355 & sdtpldt0(xS, xR) = all_824_3_1356 & sdtpldt0(xS, sz0z00) = all_824_1_1354 & sdtpldt0(xR, all_824_1_1354) = all_824_2_1355 & sdtpldt0(xR, xS) = all_824_3_1356
% 31.54/11.21  |
% 31.54/11.21  | Applying alpha-rule on (217) yields:
% 31.54/11.21  | (218) sdtpldt0(all_824_3_1356, sz0z00) = all_824_2_1355
% 31.54/11.21  | (219) sdtpldt0(xS, xR) = all_824_3_1356
% 31.54/11.21  | (220) sdtpldt0(xR, all_824_1_1354) = all_824_2_1355
% 31.54/11.21  | (221) sdtasdt0(xR, all_824_0_1353) = sz0z00
% 31.54/11.21  | (222) sdtpldt0(xS, sz0z00) = all_824_1_1354
% 31.54/11.21  | (223) sdtasdt0(xS, sz0z00) = all_824_0_1353
% 31.54/11.21  | (224) sdtpldt0(xR, xS) = all_824_3_1356
% 31.54/11.21  | (225) sdtasdt0(xS, xR) = xN
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (15) with xN, all_814_0_1337, all_0_0_0 and discharging atoms smndt0(xN) = all_814_0_1337, smndt0(xN) = all_0_0_0, yields:
% 31.54/11.21  | (226) all_814_0_1337 = all_0_0_0
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (15) with xN, all_812_0_1334, all_814_0_1337 and discharging atoms smndt0(xN) = all_814_0_1337, smndt0(xN) = all_812_0_1334, yields:
% 31.54/11.21  | (227) all_814_0_1337 = all_812_0_1334
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (15) with xN, all_810_1_1333, all_814_0_1337 and discharging atoms smndt0(xN) = all_814_0_1337, smndt0(xN) = all_810_1_1333, yields:
% 31.54/11.21  | (228) all_814_0_1337 = all_810_1_1333
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (15) with xN, all_432_0_563, all_810_1_1333 and discharging atoms smndt0(xN) = all_810_1_1333, smndt0(xN) = all_432_0_563, yields:
% 31.54/11.21  | (229) all_810_1_1333 = all_432_0_563
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (15) with xN, all_420_1_543, all_432_0_563 and discharging atoms smndt0(xN) = all_432_0_563, smndt0(xN) = all_420_1_543, yields:
% 31.54/11.21  | (230) all_432_0_563 = all_420_1_543
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (15) with xN, all_418_2_541, all_420_1_543 and discharging atoms smndt0(xN) = all_420_1_543, smndt0(xN) = all_418_2_541, yields:
% 31.54/11.21  | (231) all_420_1_543 = all_418_2_541
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (119) with xS, xR, all_700_1_1078, all_43_0_56 and discharging atoms sdtasdt0(xS, xR) = all_700_1_1078, sdtasdt0(xS, xR) = all_43_0_56, yields:
% 31.54/11.21  | (232) all_700_1_1078 = all_43_0_56
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (119) with xS, xR, all_700_1_1078, all_778_0_1248 and discharging atoms sdtasdt0(xS, xR) = all_778_0_1248, sdtasdt0(xS, xR) = all_700_1_1078, yields:
% 31.54/11.21  | (233) all_778_0_1248 = all_700_1_1078
% 31.54/11.21  |
% 31.54/11.21  | Instantiating formula (119) with xS, xR, xN, all_778_0_1248 and discharging atoms sdtasdt0(xS, xR) = all_778_0_1248, sdtasdt0(xS, xR) = xN, yields:
% 31.54/11.21  | (234) all_778_0_1248 = xN
% 31.54/11.21  |
% 31.54/11.22  | Combining equations (226,227) yields a new equation:
% 31.54/11.22  | (235) all_812_0_1334 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Combining equations (228,227) yields a new equation:
% 31.54/11.22  | (236) all_812_0_1334 = all_810_1_1333
% 31.54/11.22  |
% 31.54/11.22  | Combining equations (236,235) yields a new equation:
% 31.54/11.22  | (237) all_810_1_1333 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Simplifying 237 yields:
% 31.54/11.22  | (238) all_810_1_1333 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Combining equations (229,238) yields a new equation:
% 31.54/11.22  | (239) all_432_0_563 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Simplifying 239 yields:
% 31.54/11.22  | (240) all_432_0_563 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Combining equations (233,234) yields a new equation:
% 31.54/11.22  | (241) all_700_1_1078 = xN
% 31.54/11.22  |
% 31.54/11.22  | Simplifying 241 yields:
% 31.54/11.22  | (242) all_700_1_1078 = xN
% 31.54/11.22  |
% 31.54/11.22  | Combining equations (232,242) yields a new equation:
% 31.54/11.22  | (243) all_43_0_56 = xN
% 31.54/11.22  |
% 31.54/11.22  | Simplifying 243 yields:
% 31.54/11.22  | (244) all_43_0_56 = xN
% 31.54/11.22  |
% 31.54/11.22  | Combining equations (230,240) yields a new equation:
% 31.54/11.22  | (245) all_420_1_543 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Simplifying 245 yields:
% 31.54/11.22  | (246) all_420_1_543 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Combining equations (231,246) yields a new equation:
% 31.54/11.22  | (247) all_418_2_541 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Simplifying 247 yields:
% 31.54/11.22  | (248) all_418_2_541 = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | From (244) and (150) follows:
% 31.54/11.22  | (249) smndt0(xN) = all_0_1_1
% 31.54/11.22  |
% 31.54/11.22  | From (248) and (172) follows:
% 31.54/11.22  | (62) smndt0(xN) = all_0_0_0
% 31.54/11.22  |
% 31.54/11.22  | Instantiating formula (15) with xN, all_0_1_1, all_0_0_0 and discharging atoms smndt0(xN) = all_0_0_0, smndt0(xN) = all_0_1_1, yields:
% 31.54/11.22  | (251) all_0_0_0 = all_0_1_1
% 31.54/11.22  |
% 31.54/11.22  | Equations (251) can reduce 3 to:
% 31.54/11.22  | (252) $false
% 31.54/11.22  |
% 31.54/11.22  |-The branch is then unsatisfiable
% 31.54/11.22  % SZS output end Proof for theBenchmark
% 31.54/11.22  
% 31.54/11.22  10647ms
%------------------------------------------------------------------------------